Tesi di Laurea Specialistica in Scienze Fisiche e ...hep.fi.infn.it/CMS/tesi_tropiano.pdf · In un...
Transcript of Tesi di Laurea Specialistica in Scienze Fisiche e ...hep.fi.infn.it/CMS/tesi_tropiano.pdf · In un...
Universita degli Studi di Firenze
Facolta di Scienze Matematiche Fisiche e Naturali
Tesi di Laurea Specialistica in Scienze Fisiche e
Astrofisiche
Implementazione e studio di algoritmi di
tracciatura in eventi ad alta densita di
particelle per il tracciatore di CMS
Candidato: Antonio Tropiano
Relatrice: Dott.ssa Chiara Genta
Correlatore: Prof. Raffaello D’Alessandro
Anno Accademico 2007/08
Indice
Introduzione 1
1 Il rivelatore CMS e la fisica ad LHC 3
1.1 Il Large Hadron Collider . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Il Compact Muon Solenoid . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Il magnete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Il tracciatore al silicio . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 II calorimetro elettromagnetico . . . . . . . . . . . . . . . . . 9
1.2.4 Il calorimetro adronico . . . . . . . . . . . . . . . . . . . . . . 11
1.2.5 Le camere per i muoni . . . . . . . . . . . . . . . . . . . . . . 12
1.2.6 Trigger e DAQ . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 La fisica a LHC con CMS . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.1 Il modello standard per le interazioni elettrodeboli . . . . . . . 20
1.3.2 La ricerca del bosone di Higgs . . . . . . . . . . . . . . . . . . 24
1.3.3 La Supersimmetria . . . . . . . . . . . . . . . . . . . . . . . . 27
1.3.4 La fisica dei mesoni B . . . . . . . . . . . . . . . . . . . . . . 28
1.3.5 Fenomenologia delle collisioni protone-protone . . . . . . . . . 31
2 Il tracciatore al silicio di CMS 35
2.1 La geometria del tracciatore . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Il tracciatore a pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3 Il tracciatore a microstrisce . . . . . . . . . . . . . . . . . . . . . . . 40
3
2.3.1 Il rivelatore a microstrisce e il sistema di acquisizione . . . . . 43
2.3.2 Il chip APV25 . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4 Il software di ricostruzione di CMS: CMSSW . . . . . . . . . . . . . 47
2.4.1 Il file di configurazione e l’eseguibile cmsRun . . . . . . . . . . 48
2.5 La ricostruzione degli hit nel tracciatore . . . . . . . . . . . . . . . . 49
2.6 La ricostruzione degli hit nei pixel . . . . . . . . . . . . . . . . . . . . 50
2.7 La ricostruzione degli hit nelle microstrisce . . . . . . . . . . . . . . . 52
3 La ricostruzione delle tracce 55
3.1 Il modello della traccia . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.1 Limiti nella ricostruzione delle tracce . . . . . . . . . . . . . . 57
3.2 Il Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 La sequenza di ricostruzione . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1 Seed Generation . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2 Pattern Recognition . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.3 Fit e Smooth delle tracce . . . . . . . . . . . . . . . . . . . . 68
3.4 Performance della tracciatura standard . . . . . . . . . . . . . . . . . 70
3.4.1 L’Iterative Tracking . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4.2 L’efficienza della tracciatura standard . . . . . . . . . . . . . . 70
4 La tracciatura in ambienti “densi” 77
4.1 Il Deterministic Annealing Filter . . . . . . . . . . . . . . . . . . . . 78
4.2 La ricostruzione con il DAF . . . . . . . . . . . . . . . . . . . . . . . 84
4.3 Il Multi Track Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4 L’implementazione del Multi Track Filter in CMSSW . . . . . . . . . 87
4.5 Sviluppi del Multi Track Filter . . . . . . . . . . . . . . . . . . . . . . 93
5 Studio delle prestazioni del DAF 95
5.1 Prestazioni del DAF per diverse tipologie di eventi . . . . . . . . . . . 96
5.2 Il confronto tra DAF e tracciatura standard . . . . . . . . . . . . . . 104
5.3 Studio del DAF negli eventi con produzione di una coppia ttbar . . . 107
5.3.1 Ottimizzazione dei parametri . . . . . . . . . . . . . . . . . . 107
5.3.2 Analisi del comportamento del DAF per χ2=100 . . . . . . . . 112
Conclusioni 121
Bibliografia 123
Introduzione
Il Large Hadron Collider (LHC) [1] al CERN e un grande acceleratore di particelle
di 27 km di circonferenza, che fara collidere fasci di protoni all’energia di 14 TeV
nel centro di massa, la piu alta mai raggiunta da un acceleratore di particelle.
Nella figura 1 sono mostrati i quattro esperimenti piu importanti installati ad
LHC: CMS, ATLAS, ALICE ed LHCb.
Il Compact Muon Solenoid (CMS) e stato progettato e costruito con l’importante
contributo dell’Italia e in particolare del gruppo di Firenze, che si e occupato della
costruzione della parte interna del tracciatore. E’all’interno di questo gruppo di
ricerca che si e svolto il mio lavoro di tesi.
Figura 1: Una visione panoramica di LHC: si distinguono i quattro esperimenti
principali installati al CERN.
1
In un esperimento di alte energie la ricostruzione delle tracce lasciate dalle parti-
celle cariche all’interno del tracciatore e di primaria importanza: un buona ricostru-
zione permette di determinare con precisione il raggio di curvatura delle particelle e
ricavarne cosı l’impulso trasverso. Inoltre dalla ricostruzione dei vertici secondari di
interazione si hanno informazioni utili per il riconoscimento delle particelle, come nel
b-tagging, cioe la selezione degli eventi in cui viene prodotto un quark b. Infine, in
un collisionatore adronico come LHC, dove le interazioni avvengono tra i costituenti
dei protoni accelerati (quark e gluoni), la produzione di particelle massive, come
W e Z, e associata alla emissione di jet, dovuta alla radiazione di QCD: una effi-
ciente ricostruzione delle tracce lasciate dai jet permette una migliore ricostruzione
della cinematica dell’evento. La ricostruzione delle tracce a CMS e particolarmente
impegnativa, a causa dell’elevata densita di segnali lasciati dalle particelle che at-
traversano il tracciatore. Per ottenere delle prestazioni ottimali c’e bisogno quindi,
oltre che di rivelatori di alta granularita e prestazioni (come ad esempio i rivelatori
a microstrisce o pixel), anche di algoritmi di ricostruzione efficienti e veloci, capaci
di ricostruire il maggior numero di tracce, con la massima precisione possibile, nel
minor tempo possibile. In questo lavoro mi sono occupato di alcuni aspetti del-
la ricostruzione delle tracce, studiando vari algoritmi, ottimizzando le prestazioni
del Deterministic Annealing Filter (DAF) e implementando il Multi Track Filter
(MTF).
La tesi e articolata in sette capitoli: nel primo capitolo parlero della fisica a LHC
e del rivelatore CMS.
Nel secondo capitolo descrivero il tracciatore di CMS.
Nel terzo capitolo descrivero il metodo di ricostruzione delle tracce usato in CMS.
Nel quarto parlero dei metodi di tracciatura in ambienti densi e descrivero i due
algoritmi che ho studiato: il DAF e il MTF. Inoltre descrivero l’implementazione
del MTF, da me effettuata.
Infine, nel capitolo cinque mostrero i risultati dell’analisi da me svolta sulle
prestazioni del DAF e del MTF.
2
Capitolo 1
Il rivelatore CMS e la fisica ad
LHC
1.1 Il Large Hadron Collider
Al Centro Europeo per la Ricerca Nucleare (CERN) e attualmente installato LHC [1],
un acceleratore di particelle con una circonferenza di circa 27 Km, progettato per
far collidere fasci di protoni ad un’energia di 14 TeV nel centro di massa e nuclei
di Piombo all’energia di 2.76 TeV per nucleone nel centro di massa. LHC (le cui
caratteristiche principali sono riassunte nella tabella 1.1) e composto da 1232 dipoli
magnetici, per mantenere i protoni in orbita circolare, con cavita a radiofrequenza
che aumentano l’energia dei protoni del fascio di 0.5 MeV per giro. Alla luminosita1
nominale L = 1034cm2s−1 i due fasci di protoni collideranno circa 1 miliardo di volte
al secondo (i pacchetti di protoni si scontreranno alla frequenza di 40 MHz con un
numero medio di interazioni per scontro uguale a 25).
1La luminosita L puo essere espressa, per i collisionatori, come segue:
L =fn1n2
4πσxσy
,
dove n1 ed n2 sono il numero di particelle contenute nei due fasci che collidono, alla frequenza f ,
con dimensioni trasverse σx e σy.
3
Sono previste due fasi diverse nelle operazioni di LHC: una prima fase di tre anni
in cui l’acceleratore operera a una luminosita L = 2× 1033cm2s−1 (scenario di bassa
luminosita) e una fase successiva in cui si raggiungera una luminosita L = 1034cm2s−1
(scenario di alta luminosita).
Energia per nucleone E 7 TeV
Campo di dipolo a 7 TeV B 8.33 T
Luminosita prevista L 1034 cm2s−1
Separazione dei pacchetti 25 ns
Numero di pacchetti 2808
Numero di particelle per pacchetto 1.15× 1011
Tabella 1.1: Nella tabella sono riassunte le caratteristiche principali dell’acceleratore
LHC.
Sono previsti quattro punti di interazione per i due fasci, in corrispondenza dei
quali verranno montati i quattro esperimenti principali: CMS, ATLAS, LHCb e
ALICE.
CMS [2] e ATLAS [3] sono progettati con lo scopo principale di rivelare le par-
ticelle prodotte dal decadimento del bosone di Higgs, l’unica particella prevista dal
Modello Standard che ancora non e stata osservata e di cui il modello non prevede
la massa. Inoltre, con essi si potranno rivelare segnali per nuova fisica in un ampio
spettro di energie permettendo cosı l’eventuale scoperta di extra dimensioni, materia
oscura e particelle previste dai modelli di SuperSimmetria.
LHCb [4] si propone invece di studiare la violazione di CP (coniugazione di carica
e parita) nelle interazioni elettrodeboli, nel settore del quark b.
ALICE [5] e stato progettato per lo studio di collisioni tra ioni pesanti, infatti
ad LHC sara possibile far collidere ioni di Piombo: in questa fase si creeranno
nella collisione condizioni simili a quelle esistenti nei primi istanti di formazione
4
MUON BARREL
CALORIMETERS
Silicon MicrostripsPixels
ECAL
Scintillating
PbWO4 crystals
Cathode Strip Chambers (CSC)Resistive Plate Chambers (RPC)
Drift TubeChambers (DT)
Resistive PlateChambers (RPC)
SUPERCONDUCTING
COIL
IRON YOKE
TRACKER
MUON
ENDCAPS
Total weight : 12,500 tOverall diameter : 15 mOverall length : 21.6 mMagnetic field : 4 Tesla
HCAL
Plastic scintillator/brass
sandwich
Figura 1.1: In figura lo schema di CMS. Dall’interno verso l’esterno si distinguono:
il tracciatore, il calorimetro elettromagnetico, il calorimetro adronico, le camere per
i muoni.
dell’universo, immediatamente dopo il Big Bang, durante i quali si ipotizza sia stata
presente una forma della materia detta “plasma di quark e gluoni”.
LHCf [6] (collocato in prossimita dell’esperimento ATLAS) invece usa le parti-
celle create dalle collisioni in LHC come una sorgente per simulare raggi cosmici in
laboratorio: in particolare questo esperimento permettera di interpretare e calibrare
il fenomeno della cascata di cosmici che avviene nell’alta atmosfera, per poi applica-
re le conoscenze ottenute agli esperimenti a grande area che rivelano raggi cosmici
molto energetici (da 1017 a 1020 eV).
TOTEM [7] (che e installato nelle vicinanze di CMS) studiera vari aspetti della
fisica non accessibili agli esperimenti ATLAS e CMS, quali ad esempio la misura
della dimensione del protone.
5
1.2 Il Compact Muon Solenoid
CMS e un rivelatore progettato per identificare le particelle prodotte dalle collisioni
in un largo spettro di energia; esso ha una forma cilindrica con l’asse lungo la linea
del fascio. L’intero rivelatore misura 21.6 m di lunghezza, ha un diametro di 15 m e
pesa circa 12500 tonnellate. Al suo interno il campo magnetico, generato tramite un
solenoide superconduttore, raggiunge un’intensita di 4 Tesla. Di seguito diamo un
elenco di definizioni di grandezze di particolare interesse e a cui faremo riferimento
nelle prossime pagine:
• Sistema di riferimento di CMS: il sistema di riferimento usato in CMS
e costituito da una terna destrorsa, con l’asse z lungo la direzione dei fasci,
l’ asse x diretto verso il centro di LHC, l’asse y che punta verso l’alto. L’angolo
azimutale φ e misurato nel piano xy e quello polare θ e misurato rispetto
all’ asse z.
• Pseudorapidita: si indica con η, e data da:
η = − ln tan(θ/2),
con θ definito al punto precedente. Come accennato in precedenza, ad LHC
le collisioni avverranno tra i costituenti dei protoni (partoni, ovvero quark e
gluoni): per questa ragione una qualsiasi particella prodotta dall’annichilazio-
ne dei due partoni non ha impulso longitudinale (lungo la direzione del fascio)
definito nel sistema di riferimento del laboratorio. Di conseguenza la parti-
cella prodotta nell’interazione partonica non decade da ferma nel sistema del
Laboratorio.
Tuttavia la distribuzione di particelle in funzione della rapidita y e una quan-
tita invariante rispetto a un boost di Lorentz2 lungo la direzione z. La rapidita
2Con il termine boost si indica una trasformazione di Lorentz, corrispondente a un moto a
velocita costante lungo una direzione dello spazio.
6
e definita come:
y =1
2lnE + pz
E − pz
,
dove E e l’energia della particella e pz la componente dell’impulso lungo z (la
direzione del fascio).
Nel limite in cui l’impulso della particella e molto maggiore della sua massa
y ≈ η e quindi la distribuzione di particelle in funzione della pseudorapidita
dN/dη e un’invariante rispetto a un boost lungo l’asse z.
• Jet: con questo termine si intende un fascio di adroni, prodotto appunto
dall’adronizzazione dei partoni nello stato finale dell’interazione primaria e da
vari gluoni emessi per radiazione.
• Energia trasversa: l’energia trasversa di una particella o di un jet, indicata
con ET , si calcola a partire dalle componenti del quadrimpulso pµ nel piano xy
e dalla massa m (che puo essere la massa della particella o la massa invariante
delle particelle che compongono il jet):
E2T = m2c4 + p2
xc2 + p2
yc2.
Per particelle ultrarelativistiche il termine m2c4 e trascurabile rispetto agli
altri due.
• Energia trasversa mancante: si indica con EmissT ed e espressa (nel limite
di particelle ultrarelativistiche) da:
EmissT =
√(∑px
)2+(∑
py
)2.
Dove px e py sono le componenti del quadrivettore pµ nei piani x e y. E
la sommatoria e fatta su tutte le particelle rivelate. Un valore di EmissT si-
gnificativamente diverso da zero e un’indicazione della presenza nell’evento di
particelle non interagenti o debolmente interagenti, come i neutrini o eventuali
particelle supersimmetriche.
7
CMS e stato progettato per sfruttare al massimo le potenzialita di un accele-
ratore come LHC. Le caratteristiche principali del rivelatore possono essere cosı
sintetizzate:
• Capacita di identificare muoni in un ampio intervallo di impulso e per valori
di |η| < 2.5 ; capacita di determinare senza ambiguita la carica dei muoni
con impulso minore di 1 TeV/c; risoluzione attorno a 1% a 100 GeV/c2 nella
determinazione della massa invariante di una coppia di muoni.
• Buona efficienza di ricostruzione e buona risoluzione nella misura dell’impulso
delle particelle cariche, anche per i leptoni τ e per i quark b, grazie alla presenza
di rivelatori molto vicini alla zona di interazione.
• Buona risoluzione nella ricostruzione della massa invariante di una coppia di
fotoni o di elettroni (≈ 1% a 100 GeV/c2); misura efficiente della direzione dei
fotoni e precisa localizzazione del vertice primario dell’interazione.
• Buona risoluzione nella determinazione dell’energia trasversa mancante EmissT
e nella ricostruzione della massa di una coppia di jet, grazie ai calorimetri
adronici che coprano una larga porzione di angolo solido (|η| < 5).
1.2.1 Il magnete
Il magnete di LHC e un solenoide superconduttore lungo 13 m e del diametro di
5.9 m; gli avvolgimenti del solenoide sono in Niobio-Titanio e attraverso di essi
circola una corrente di 20000 Ampere, che produce un campo magnetico di circa 3.8
Tesla. Le linee del campo magnetico sono chiuse da un giogo di ritorno in ferro, dello
spessore complessivo di 1.8 m, all’interno del quale sono installate le camere per i
muoni. All’interno del magnete invece sono installati il tracciatore, il calorimetro
elettromagnetico (ECAL) e quello adronico (HCAL). Grazie al sistema magnetico e
alla precisione con cui potranno essere ricostruite le tracce cariche, con il tracciatore
8
al silicio di CMS si potra determinare, ad esempio, l’impulso di un muone da 1 TeV/c
con una precisione del 10%.
1.2.2 Il tracciatore al silicio
La parte piu interna di CMS e composta da un tracciatore, formato da rivelatori al
silicio disposti in strati cilindrici attorno al fascio; il rivelatore di vertice e realizzato
con la tecnologia dei pixel, mentre nella parte esterna sono utilizzati rivelatori a
microstrisce. L’intero tracciatore copre una porzione di angolo solido corrispondente
ad |η| < 2.5. Il raggio esterno misura 110 cm, mentre la sua lunghezza e di circa
540 cm. Con questo tracciatore ci si aspetta di raggiungere una risoluzione nella
misurazione dell’impulso trasverso dei muoni σ(pT )pT
< 4%, per energie maggiori di
1 GeV, e un’efficienza di ricostruzione delle tracce lasciate da muoni molto vicina al
100%. Una descrizione dettagliata del tracciatore verra data nel prossimo capitolo.
1.2.3 II calorimetro elettromagnetico
Esternamente al tracciatore sono installati un calorimetro elettromagnetico (ECAL) [8]
ed uno adronico (HCAL) [9]. Il calorimetro elettromagnetico e costruito in PbWO4
e misura l’energia rilasciata da fotoni ed elettroni all’interno del rivelatore. Esso e
composto da quasi 70000 cristalli di PbWO4 (uno di questi e mostrato in figura 1.2):
questi cristalli hanno una lunghezza di radiazione X0 = 0.89 cm e un raggio di Mo-
liere R0 = 2.2 cm molto contenuti e hanno una risposta molto veloce (circa l’80%
della luce di scintillazione viene emessa entro 25 ns); inoltre il materiale con cui sono
costruiti e resistente alla radiazione.
L’intero calorimetro elettromagnetico copre la regione corrispondente a |η| < 3.
Nella regione che va da |η| = 0 a |η| = 1.48, chiamata barrel (EB), i cristalli hanno
una superficie interna di 22 × 22 mm2 e una lunghezza di 230 mm e coprono un
angolo di 1 in ∆η e ∆φ; la parte barrel del calorimetro elettromagnetico e divisa
in due meta, ognuna delle quali contiene 18 supermoduli. Nella regione da |η| =
9
Figura 1.2: Foto di uno dei circa 70000 cristalli che compongono il calorimetro
elettromagnetico.
1.48 a |η| = 3, chiamata endcap (EE) i cristalli hanno invece superficie interna di
28.6 × 28.6 mm2 e una lunghezza di 220 mm; inoltre sono sistemati lungo il piano
x−y (geometria a disco), invece che ηφ. La parte endcap di ECAL e preceduta da un
preshower, composto da due strati di Piombo, che funge da radiatore, alternati a due
strati di microstriscie al silicio: il preshower aiuta a distinguere i fotoni prodotti dal
decadimento di un π0 molto energetico, che sono molto collimati e potrebbero essere
ricostruiti come un singolo fotone, soprattutto se impattano sullo stesso cristallo.
La risoluzione di un supermodulo del calorimetro e stata misurata in un test su
fascio. In generale la risoluzione energetica di un calorimetro puo essere espressa
come segue:
(σ
E
)2
=
(S√E
)2
+(N
E
)2
+ C2,
dove S e il termine dovuto alle fluttuazioni del contenuto dello sciame elettroma-
gnetico, N il rumore elettrico, C e una costante che tiene conto delle disomogeneita
dei cristalli ed E e l’energia espressa numericamente in GeV. Il valore di questi ter-
10
mini e stato misurato durante i test beam. I risultati sono mostrati nella figura 1.3.
La risoluzione e tra 0.4 e 0.6 % nell’intervallo di energia che va da 50 a 250 GeV.
Figura 1.3: Nella figura e mostrata la risoluzione σ(E)E
in funzione dell’energia del
fascio di elettroni con cui e stato effettuato il test.
1.2.4 Il calorimetro adronico
Il calorimetro adronico e formato da lastre di ottone alternate a scintillatori plastici
e misura l’energia rilasciata dagli adroni prodotti dalle collisioni dei protoni. Esso
si estende esternamente al calorimetro elettromagnetico ed e diviso in 3 regioni:
• Hadron barrel (HB): si estende nella regione di pseudorapidita |η| < 1.4
ed e composto da 2304 “torri calorimetriche”con segmentazione ∆η × ∆φ =
0.87× 0.87. In totale e composto da 15 lastre di ottone dello spessore di 5 cm,
mentre lo spessore degli scintillatori plastici e di 3.7 mm, eccetto per quello
piu interno, che e di 9 mm.
• Hadron endcap (HE): ogni endcap copre la regione di pseudorapidita 1.3 <
|η| < 3.0, e composto da un totale di 2304 torri, con segmentazione in φ che
varia da 5 a 10, mentre in η varia da 0.09 a 0.35.
11
• Hadron forward (HF): copre la regione 3.0 < |η| < 5.0 ed e composto da
acciaio e fibre di quarzo: la luce Cerenkov emessa dalle particelle che attra-
versano le fibre di quarzo costituisce il segnale che viene poi convogliato ai
fotomoltiplicatori. Questa parte del calorimetro si trova all’esterno delle bo-
bine del campo magnetico, ed e composta di 900 torri, con segmentazione in
φ di 10, mentre in η varia da 0.175 a 0.3.
Dagli studi effettuati sottoponendo il calorimetro a un fascio adronico e stata
misurata [9] una risoluzione, nella regione di energia compresa tra 30 GeV e 1 TeV,
esprimibile con questa formula:(σE
E
)=
(100%√E
)⊕
4.5%,
con E l’energia espressa numericamente in GeV.
1.2.5 Le camere per i muoni
Le camere per i muoni [10], mostrate in figura 1.4, oltre ad identificare i muoni, ne
forniscono una misura di impulso complementare a quella del tracciatore.
Esse sono alloggiate all’interno del giogo di ritorno in ferro del campo magnetico,
immerse in un campo di circa 1.8 T. Sono composte da tre tipi di rivelatori a gas: per
|η| < 1.2 (barrel) sono installate delle camere a deriva (Drift Tubes), nella regione
fino a η = 2.4 (endcap) sono installate delle camere a strisce catodiche (Cathode
Strip Chambers); in entrambe le regioni inoltre sono installate delle camere a piastre
resistive (Resistive Plate Chambers).
Le camere a deriva sono composte da piastre di alluminio parallele che fanno
da catodi. Gli anodi sono dei fili di acciaio dal diametro di 50 µm, posti tra le due
piastre di alluminio. Il volume interno e riempito con una miscela di 80% di Ar e
20% di CO2, a pressione atmosferica. La risoluzione delle camere e di circa 100 µm
sia in rφ che in rz.
Le camere a strisce catodiche sono composte da una serie di fili anodici,
posti tra due piastre che fanno da catodo e segmentati in strisce perpendicolari ai
12
Figura 1.4: Sezione longitudinale di un quarto del rivelatore CMS: sono indicate le
camere per i muoni, all’esterno delle bobine del campo magnetico.
fili. Sono riempite con una miscela di gas composta dal 30% di Ar, 50% di CO2 e
20% di CF4. L’interpolazione del segnale proveniente da due strisce diverse permette
di misurare il punto di passaggio di un muone con una risoluzione di 50 µm.
Le camere a piastre resistive sono fatte da piani di bachelite con una resi-
stivita di 1010 ÷ 1011 Ω cm, separati dalle strisce in alluminio da un film isolante.
Sono riempite con una miscela di freon (94.5%) e isobutano (4.5%) ed operano nel
regime a valanga.
1.2.6 Trigger e DAQ
Ad LHC i fasci di protoni collideranno con una frequenza di 40 MHz. E’pero impos-
sibile ricostruire gli eventi con questa frequenza, o anche solo immagazzinare tutte
le informazioni di ogni collisione: il limite alla frequenza con cui possono essere ima-
gazzinate le informazioni relative ai singoli eventi, imposto da difficolta tecniche ed
economiche, e di 100 Hz. Inoltre, a causa della piccola sezione d’urto, il numero di
13
eventi interessanti per la fisica di CMS sara molto piu piccolo rispetto al numero
totale degli eventi prodotti dalle collisioni tra protoni. Per questo il sistema di trig-
ger e stato progettato con l’obiettivo di selezionare e ridurre il numero di eventi da
immagazzinare di un fattore 4×105.
Il sistema di trigger di CMS [11, 12] e stato progettato per selezionare gli eventi
interessanti da ricostruire ed immagazzinare per l’analisi successiva nel piu breve
tempo possibile.
Il sistema di trigger e diviso in due parti, il trigger di primo livello (L1) e il
trigger di alto livello (HLT). Il trigger L1 e progettato per prendere decisioni molto
veloci e per ridurre al minimo i tempi morti, in modo da riuscire a ridurre il flusso
di dati da 40 MHz a quasi 100 KHz. A questo punto interviene il trigger di alto
livello (HLT): quest’ultimo e composto da algoritmi dedicati che costituiscono il
primo passo dell’analisi; al termine del processo di HLT i dati selezionati provenienti
dall’evento vengono memorizzati, con una frequenza ridotta a 100 Hz.
Il trigger di primo livello
Il primo livello di trigger, che si indica generalmente con L1, agisce su un sottoinsieme
dell’informazione totale registrata nell’evento. Ogni 25 ns, con una latenza fissata
dal tempo dell’interazione, il trigger prende una decisione. Se l’evento passa questo
primo livello l’informazione ad esso associata viene inviata ad una serie di trigger di
alto livello (HLT) per un’ulteriore analisi.
La decisione presa da L1 e basata sulla presenza nell’evento di fotoni, muoni,
elettroni e jet (nelle tabelle 1.2 e 1.3 sono mostrate le soglie per diversi scenari di
luminosita). Per identificare questi oggetti viene usata l’informazione proveniente
dai calorimetri e dalle camere per i muoni, in un dato elemento dello spazio ηφ.
Inoltre L1 usa anche la somma globale di ET (somma scalare dell’energia trasversa
misurata in tutte le celle del calorimetro) e della ET mancante, confrontati con
diverse soglie. Solo circa 100000 eventi al secondo passano il primo livello di trigger.
14
Trigger Threshold Expected Rate
[GeV o GeV/c] [kHz]
Inclusive isolated e/γ 29 3.3
ee/γγ 17 1.3
Inclusive isolated muon 14 2.7
Di-muons 3 0.9
Single tau-jet trigger 86 2.2
Two tau-jets 59 1.0
1-jet, 3-jets, 4-jets 177, 86, 70 3.0
1 jet AND EmissT 88, 46 2.3
e AND jet 21, 45 0.8
Minimum-bias (calibration) 0.9
Total 16.0
Tabella 1.2: Nella tabella sono mostrate le soglie per il trigger L1, nello scenario di
bassa luminosita [11]. I valori delle soglie corrispondono a quelli che danno un’effi-
cienza del 95% per gli oggetti ricostruiti. La frequenza totale e diversa dalla somma
di ogni singolo canale poiche ci sono eventi che passano piu di una soglia.
15
Trigger Threshold Expected Rate
[GeV o GeV/c] [kHz]
Inclusive isolated e/γ 34 6.5
ee/γγ 19 3.3
Inclusive isolated muon 20 6.2
Di-muons 5 1.7
Single tau-jet trigger 101 5.3
Two tau-jets 67 3.6
1-jet, 3-jets, 4-jets 250, 110, 95 3.0
1 jet AND EmissT 113, 70 4.5
e AND jet 25, 52 1.3
µ AND jet 15, 40 0.8
Minimum-bias (calibration) 1.0
Total 33.5
Tabella 1.3: Nella tabella sono mostrate le soglie per il trigger L1, nello scenario di
alta luminosita [11]. I valori delle soglie corrispondono a quelli che danno un’effi-
cienza del 95% per gli oggetti ricostruiti. La frequenza totale e diversa dalla somma
di ogni singolo canale poiche ci sono eventi che passano piu di una soglia.
16
Il trigger di alto livello
La frequenza con cui vengono salvati i dati, per via della capacita di immagazzi-
namento dei sistemi di calcolo, non puo superare i 100 eventi al secondo. Questa
selezione finale e compito del trigger di alto livello (HLT).
La selezione viene applicata attraverso diversi stadi successivi: nel primo stadio
viene presa in considerazione solo una piccola parte dei dati, proveniente dal calori-
metro e dalle camere per i muoni. Questa procedura permette di ridurre il numero
di eventi di un ordine di grandezza, rispetto al trigger L1. I dati che passano questo
primo filtro sono quindi trasferiti su macchine dedicate, dette farm3, dove vengono
applicati gli algoritmi standard di HLT. Alcune delle informazioni che non vengono
usate nel trigger L1 vengono invece usate nel trigger di alto livello, come ad esempio
l’informazione proveniente dal tracciatore. L’HLT porta il numero di eventi fino a
un massimo di 100 al secondo. In tabella 1.4 sono mostrate le soglie per l’HLT nello
scenario di bassa luminosita, mentre le efficienze corrispondenti sono mostrate in
tabella 1.5.
Il sistema di acquisizione dati (DAQ)
L’architettura del sistema di acquisizione dati (Data Acquisition System - DAQ) [12]
e composta da 4 stadi successivi:
1. prima fase di lettura dei rivelatori: in questa fase i dati vengono memorizzati
in buffer locali, se il trigger L1 ha dato il consenso;
2. fase di ricostruzione dell’evento: tutti i dati relativi allo stesso evento vengono
raccolti dai vari buffer attraverso una rete di interruttori e vengono assemblati
in un unico processore;
3. fase di selezione: l’evento viene analizzato dall’HLT nella farm;
3Per farm si intende un gruppo di calcolatori connessi in rete, in modo che possano scambiarsi
informazioni per una piu efficiente e veloce elaborazione dei dati.
17
Trigger Threshold Expected Rate
[GeV o GeV/c] [Hz]
Inclusive e 29 33
ee 17 1
Inclusive γ 80 4
γγ 40, 25 5
Inclusive muon 19 25
Di-muons 7 4
Inclusive tau-jet 86 3
Two tau-jets 59 1
1-jet, 3-jets, 4-jets 657, 247, 113 9
1 jet AND EmissT 180, 123 5
e AND jet 19, 52 1
Inclusive b jets 237 5
(Calibration and other events 10%) 10
Total 105
Tabella 1.4: La tabella per HLT a bassa luminosita [12]. I valori delle soglie sono
quelli corrispondenti a ET e pT che danno un’efficienza del 95% (90% nel caso dei
muoni).
18
Canale Efficienza
H(115 GeV/c2)→ γγ 77%
H(160 GeV/c2)→ WW ∗ 92%
H→ ZZ→ 4µ 92%
A/H(200 GeV/c2)→ 2τ 45%
SUSY (0.5 TeV/c2 s-particles) 60%
Rp-violation SUSY 20%
W → eνe 67%
W → µνµ 69%
tt→ µ+X 72%
Tabella 1.5: Le efficienze di HLT calcolate per i tagli della tabella 1.4 [12].
4. fase di analisi o immagazzinamento: gli eventi selezionati dall’HLT vengono
inviati ai servizi di calcolo per una analisi offline4 e vengono immagazzinati
per analisi successive.
Questa suddivisione del DAQ in quattro settori, indipendenti l’uno dall’altro,
permette la progettazione di un sistema che puo essere sviluppato, testato e installato
in parallelo.
1.3 La fisica a LHC con CMS
CMS e stato progettato per rispondere a quesiti fondamentali nella fisica delle
particelle elementari, tra i quali:
• non e ancora nota l’origine della massa delle particelle. Il “meccanismo di
Higgs”e il modello teorico piu accreditato per rispondere questa domanda, ma
4Con il termine offline si indica un’elaborazione dei dati compiuta in un momento diverso da
quello dell’acquisizione dei dati. La ricostruzione online invece indica un’elaborazione fatta al
momento stesso dell’acquisizione.
19
esso prevede l’esistenza del “bosone di Higgs”H0, particella che non e mai stata
osservata;
• e ignota l’origine della “materia oscura”. Potrebbe esistere nuova fisica oltre il
Modello Standard, come ad esempio la SuperSimmetria, che ne spiegherebbe
l’esistenza;
• tra i problemi ancora aperti c’e quello dell’asimmetria materia-antimateria
nell’universo e della possibile sottostruttura delle particelle elementari oggi
conosciute.
Per rispondere a queste domande CMS rivelera e studiera le proprieta delle par-
ticelle prodotte dall’interazione di due fasci di protoni accelerati fino ad un’energia
di 14 TeV nel centro di massa.
1.3.1 Il modello standard per le interazioni elettrodeboli
Il Modello Standard prevede l’esistenza di 6 particelle a spin 12, i leptoni, e 6 particelle
a spin 12, i quark. Queste sono divise a loro volta in 3 generazioni.
(νe
e
) (νµ
µ
) (ντ
τ
)
(u
d
) (c
s
) (t
b
)
La materia ordinaria e costituita da leptoni e adroni: questi ultimi si dividono
in due tipi, i mesoni (costituiti da una coppia quark anti-quark) e i barioni (stati
legati di tre quark).
Le interazioni fondamentali tra quark e leptoni, descritte dal Modello Standard,
si dividono in tre tipi diversi:
• Forte: questa interazione e mediata da 8 gluoni, a massa nulla.
20
• Debole: questa interazione e mediata da 3 bosoni vettori massivi: W±, Z0.
• Elettromagnetica: questa interazione e mediata dal fotone γ, anche esso a
massa nulla.
In realta l’interazione debole e quella elettromagnetica sono manifestazioni della
stessa forza, quella elettrodebole.
La rottura spontanea della simmetria
La rottura spontanea della simmetria e quel fenomeno per cui un sistema che presen-
ta una Lagrangiana invariante rispetto a un certo gruppo di trasformazioni, rompe
la simmetria nello stato fondamentale: questo accade quando quest’ultimo e de-
genere rispetto alla simmetria suddetta e quindi la scelta di un particolare stato
fondamentale tra quelli degeneri rompe la simmetria del sistema.
Prendiamo, ad esempio, una lagrangiana del tipo [13]:
L = (∂νφ†)(∂νφ)− µ2φ†φ− λ(φ†φ)2. (1.1)
Dove φ e un campo scalare complesso, µ e λ sono due parametri, il cui valore
discuteremo a breve. Il primo termine della (1.1) e il termine cinetico, mentre il
secondo e il terzo rappresentano il potenziale di interazione. Questa lagrangiana e
invariante rispetto alle trasformazioni del gruppo U(1) (φ(x)→ φ(x)eiα). Per quanto
riguarda i parametri, deve valere λ < 0, altrimenti L non e inferiormente limitata;
invece per avere uno stato fondamentale degenere deve essere µ2 > 0, altrimenti si
avrebbe un unico minimo in corrispondenza di φ = 0. Si ha cosı una circonferenza
di minimi dell’energia potenziale V (vedi figura 1.5), corrispondente a:
φ(x) =
√−µ2
2λeiθ con 0 ≤ θ ≤ 2π. (1.2)
La scelta di un particolare valore di θ rompe la simmetria dello stato fondamen-
tale. Scegliendo θ = 0:
21
Figura 1.5: In figura e mostrata la forma del potenziale V in funzione di φ, nel
piano complesso.
φ(x) =
√−µ2
2λ≡ 1√
2v.
Espandendo infine il campo φ(x) nell’intorno di questo minimo attraverso l’in-
troduzione di un piccola perturbazione dello stato fondamentale del tipo:
φ(x) =1√2(v + iη(x)),
si ottiene la lagrangiana:
L = (∂νη)(∂νη)− 1
4λη4(x). (1.3)
Che e analoga alla densita lagrangiana per il campo di Klein-Gordon [13], per un
bosone a massa nulla (non compaiono i termini in η2). Questo e un risultato generale,
che viene indicato come “teorema di Goldstone”[15]. Questo teorema asserisce che,
se valgono le seguenti ipotesi:
• Teoria di campo manifestamente covariante
22
• Simmetria continua della lagrangiana
• Spazio di Hilbert della teoria a norma positiva
per ogni simmetria rotta spontaneamente esiste una particella a massa nulla (bosone
di Goldstone).
Il meccanismo di Higgs
Fino ad oggi non sono mai stati osservati bosoni di Goldstone. Dunque le teorie
di gauge che prevedono rottura spontanea di simmetria non devono generare queste
particelle. Il meccanismo di Higgs e quello che permette di creare bosoni vettoriali
massivi, attraverso l’introduzione di un doppietto di Higgs
Φ =
(φ+
φ0
).
Questa scelta di un doppietto complesso e la piu semplice che si puo fare per riprodur-
re 3 bosoni di Goldstone che diano massa ai campi W± e Z0 e contemporaneamente
lasciare il fotone a massa zero. La lagrangiana piu generale che abbia la simmetria
globale SU(2)⊗ U(1) (e che sia rinormalizzabile) si scrive:
LHiggs = (∂νΦ†)(∂νΦ)− µ2Φ†Φ− λ(Φ†Φ)2. (1.4)
A questo punto, scegliendo opportunamente lo stato di vuoto
Φ0 =
(0
v/√
2
)
e introducendo una piccola perturbazione al vuoto (come fatto sopra) si ottiene un
campo formato da 3 bosoni di Goldstone e uno scalare con massa (il bosone di
Higgs).
Se si estende la simmetria della lagrangiana di Higgs da globale a locale, sosti-
tuendo le derivate che compaiono in (1.4) con delle derivate covarianti5 ed effettuan-
5Per derivata covariante qui si intende una derivata invariante rispetto a trasformazioni del
gruppo SU(2)⊗ U(1), ovvero in formule: DHν = ∂ν + i g
2~τ · ~Wν + i g′
2Yν .
23
do uno sviluppo del campo attorno a un minimo, come nei due casi precedenti, si
riesce a dare massa anche ai 3 bosoni di Goldstone, che diventano W+, W−, Z0.
1.3.2 La ricerca del bosone di Higgs
Uno degli obiettivi principali di CMS e appunto la ricerca e la misura della massa
del bosone di Higgs [16].
I precedenti esperimenti installati al CERN, che sfruttavano LEP, un collisiona-
tore di elettroni e positroni, hanno permesso di porre un limite inferiore (al 95% del
livello di confidenza) alla massa del bosone di Higgs [14]:
mH = 114.4 GeV/c2
g
g
g
g
t
t
t
t
t
t
t
H0
H0
H0
H0
gg fusion
tt fusion
WW, ZZ fusion
q
q
W, Z
W, Z
W, ZW, Z
q
q
q
q W,Z bremsstrahlung
Figura 1.6: Diagrammi di Feynman per i quattro processi principali per la produzione
del bosone di Higgs.
Ad LHC i piu importanti meccanismi per la produzione di H0 sono (vedi figura 1.6
per i corrispondenti diagrammi di Feynman associati a questi processi):
• fusione di gluoni
• fusione di due W o di due Z0
• produzione associata H0 con una coppia tt o bb
24
• bremsstrahlung di W o Z0.
Nella figura 1.7 sono mostrati i valori della sezione d’urto di produzione del
bosone di Higgs per i 4 processi sopra elencati, in funzione della massa del bosone
di Higgs.
Figura 1.7: La figura mostra i valori della sezione d’urto di produzione del bosone
di Higgs per i processi principali.
Sebbene la teoria non sia in grado di prevedere la massa del bosone di Higgs,
sono noti i rapporti di decadimento di H0 per un ampio intervallo della massa del
bosone di Higgs stesso. Come mostrato in figura 1.8, nell’intervallo che va da 114 a
140 GeV i canali di decadimento piu interessanti sono:
• H0 → γγ
• H0 → bb
Il secondo canale ha un branching ratio molto maggiore rispetto al primo, ma e
inquinato da troppi eventi di fondo.
25
Nell’intervallo che va da 140 a 180 GeV i due canali di decadimento piu promet-
tenti per la rivelazione del bosone di Higgs sono:
• H0 → Z0Z0∗
• H0 → W±W∓∗.
Con l’asterisco sono indicate le particelle virtuali. I valori dei due branching ratio
crescono piu ci si avvicina alla soglia di produzione per le particelle reali.
Per valori di massa da 180 a 600 GeV invece il canale migliore in cui studiare il
bosone di Higgs e il decadimento in due Z, che a loro volta possono decadere in 4
leptoni.
Infine, per masse superiori a 600 GeV il canale preferenziale e il decadimento in
2 leptoni, con produzione di 2 jet adronici.
Figura 1.8: Il grafico mostra il valore del branching ratio del decadimento del bosone
di Higgs, per diversi canali di decadimento e per diversi valori della massa dell’Higgs.
26
1.3.3 La Supersimmetria
La Supersimmetria [20] e una delle teorie piu accreditate per descrivere la fisica ad
energie dell’ordine del TeV, cioe alle energie a cui arriva LHC.
Il Modello Standard e la teoria che spiega meglio le interazioni fondamentali tra
le particelle elementari, essa e una teoria di gauge SU(3)C × SU(2)L × U(1)Y ed e
stata confermata da una serie di osservazioni e verifiche sperimentali. Tuttavia, se si
cerca di estendere la teoria a regioni di piu alta energia, attraverso l’introduzione di
un gruppo di simmetria piu grande (ad esempio una simmetria del gruppo SU(5)),
si va incontro a problemi concettuali, come il cosiddetto gauge hierarchy problem.
Questo problema si riferisce al fatto che esistono due scale di energia, molto diverse
tra di loro: quella di Planck (alla quale avverrebbe l’unificazione delle teorie fon-
damentali) e quella tipica delle masse delle particelle elementari6. Inoltre, nel caso
sia valida l’ipotesi che esista una particella elementare, il bosone di Higgs appunto,
responsabile della rottura della simmetria SU(2) × U(1), per preservare l’esisten-
za della gerarchia sarebbero necessarie delle correzioni radiative, proporzionali alla
massa del bosone di Higgs, che distruggerebbero la gerarchia, se non venissero can-
cellate in qualche maniera. Questa cancellazione avverrebbe naturalmente se valesse
la SuperSimmetria.
In generale una teoria di campo supersimmetrica [19] postula l’esistenza di una
ulteriore simmetria, oltre a quelle comunemente richieste a una teoria di campo
quantistica: la simmetria rispetto a un operatore che manda stati fermionici in stati
bosonici. In questa maniera ogni particella fermionica ha un suo partner bosonico
e viceversa: avremo cosı per ogni leptone uno sleptone (simmetric lepton), per ogni
quark uno squark e cosı via. Questa simmetria permette, come accennato sopra, di
risolvere il problema della rinormalizzazione del campo di Higgs, dal momento che i
termini correttivi che compaiono nella Lagrangiana supersimmetrica sono gli stessi
per i campi bosonici e fermionici e quindi si cancellano automaticamente.
6Queste due scale di energia sono: MGUT ≈ 1019 GeV e MZ ≈ 90 GeV.
27
Le teorie supersimmetriche potrebbero inoltre spiegare l’esistenza della cosid-
detta “Materia Oscura”: essa costituisce la quasi totalita della materia presente
nell’universo, non e osservabile con i consueti metodi di indagine poiche non in-
teragisce elettromagneticamente o debolmente e la sua esistenza e stata provata
attraverso numerose osservazioni astrofisiche. Un possibile candidato a costituire
questo alone di materia che avvolge le galassie potrebbe essere il neutralino, cioe il
partner supersimmetrico del neutrino, che e la particella piu leggera prevista dalle
teorie supersimmetriche (vedi tabella 1.7).
Inoltre la SuperSimmetria permette di introdurre all’interno dello schema del
Modello Standard anche la gravita, in maniera molto naturale, a causa del fatto che
la struttura dell’algebra della SuperSimmetria lega assieme rappresentazioni con
spin diversi.
In realta non sono mai stati osservati fino ad oggi dei partner supersimmetrici
delle particelle ordinarie, con massa uguale a quella delle particelle ordinarie. Questo
ci fa supporre che la Supersimmetria sia in realta una simmetria “rotta”. Esistono
diversi modelli di Supersimmetria, tra i quali il piu semplice e il cosiddetto MSSM
(Minimal Supersymmetric Standard Model), che prevede l’esistenza di due doppietti
di Higgs [13].
I segnali tipici di Supersimmetria ad LHC sono eventi con jet ad alto impulso
trasverso, energia trasversa mancante, leptoni ad alto impulso trasverso. Questi
segnali richiedono quindi una buona risoluzione nella ET dei jet, un calorimetro
ermetico, un’efficiente identificazione di b e τ . Per queste ragioni CMS si presenta
come un rivelatore adatto a scoprire segnali di Supersimmetria, gia nelle prime fasi
di LHC, quando l’acceleratore operera a luminosita di circa 2× 1033cm−2s−1[20].
1.3.4 La fisica dei mesoni B
A CMS potranno essere condotti anche studi sulla fisica del B, soprattutto nelle
prime fasi in cui LHC operera a bassa luminosita, quando gli effetti di pile up
saranno piccoli. Nella fase ad alta luminosita sara possibile lo studio di decadimenti
28
Nome spin 0 spin 1/2 SU(3)C , SU(2)L, U(1)Y
squark, quark Q (uL dL) (uL dL) (3,2, 16)
(×3 famiglie) u u∗R u†L (3,1,−23)
d d∗R d†L (3,1, 13)
sleptoni, leptoni L (ν eL) (ν eL) (1,2,−12)
(×3 famiglie) e e∗R e†L (1,1, 1)
Higgs, higgsini Hu (H+u H0
u) (H+u H0
u) (1,2,+12)
Hd (H0d H
−d ) (H0
d H−d ) (1,2,−1
2)
Tabella 1.6: Supermultipletti chirali nel Minimal Supersymmetric Standard Model.
I campi a spin 0 sono scalari complessi, mentre i campi a spin 1/2 fermioni a due
componenti.
Nome spin 1/2 spin 1 SU(3)C , SU(2)L, U(1)Y
gluino, gluone g g (8,1, 0)
wini, bosoni W W± W 0 W± W 0 (1,3, 0)
bino, bosone B B0 B0 (1,1, 0)
Tabella 1.7: Supermultipletti di gauge nel Minimal Supersymmetric Standard Model.
29
rari. Infatti a√s = 14 TeV la sezione d’urto di produzione per una coppia bb e
500 µb. Questo significa che ogni anno verranno prodotti circa 1012 coppie bb nella
fase iniziale a bassa luminosita.
I principali obiettivi di CMS, nello studio delle proprieta del quark b sono:
• studio della violazione di CP nei decadimenti dei mesoni B, specialmente del
B0s , che non puo essere prodotto nelle attuali B-factory ma solo nei collider
adronici come Tevatron [22] ed LHC.
• misura precisa della differenza tra le masse e quella tra le larghezze dei due
autostati deboli BHs e BL
s . La differenza di massa ∆ms e stata misurata con
alta precisione dall’esperimento CDF, mentre la differenza tra le larghezze ∆Γs
deve ancora essere precisamente determinata.
• ricerca del decadimento raro B0s → µ+µ−, che potra fornire informazioni sulla
presenza di nuova fisica oltre il Modello Standard.
Il canale B0s → J/ψ φ (in figura 1.9 sono mostrati i due diagrammi di Feynman
corrispondenti a questi decadimenti) e quello piu promettente per lo studio della
violazione di CP e la misura di ∆Γs.
Bs
b
b
c
c
φ
Ψ Ψ
φ
BsW W
u, c, t
c
c
s
s s
s
Figura 1.9: Diagrammi di Feynman ad “albero”(a sinistra) e a “pinguino”(a destra),
per il decadimento B0s ← J/ψφ.
La vita media degli adroni B e dell’ordine di 1 ps, quindi a CMS questi viag-
geranno per qualche millimetro prima di decadere. Il tracciatore di CMS e uno
30
strumento fondamentale per l’identificazione degli adroni B, attraverso una precisa
ricostruzione dei vertici secondari della catena di decadimento.
Diversi studi, come ad esempio [23], sono giunti alla conclusione che CMS e un
esperimento adatto allo studio della fisica del B, soprattutto grazie al sistema di
tracciatura e ad algoritmi di ricostruzione efficienti e versatili, capaci di operare
in un ambiente “denso”, cioe con una grande molteplicita di particelle prodotte e
quindi di tracce da ricostruire.
1.3.5 Fenomenologia delle collisioni protone-protone
Le collisioni tra protoni sono influenzate dal fatto che i protoni non sono particelle
elementari, ma sono costituiti da 3 quark di valenza (2 quark up e 1 quark down) che
sono circondati da un mare di gluoni e quark. Percio le collisioni si verificheranno
tra i costituenti dei protoni accelerati da LHC (quark e gluoni, anche detti partoni),
come mostrato in figura 1.10, e si possono raggruppare in due principali categorie:
• Interazioni con basso impulso trasverso trasferito, attorno ai 500 MeV/c, con
piccolo angolo di scattering. Questi eventi sono detti di Minimum Bias e
rappresentano la maggior parte delle interazioni osservabili.
• Interazioni tra i partoni che costituiscono i 2 protoni che collidono, caratteriz-
zate da alto impulso trasferito e dalla possibilita di produrre particelle pesanti,
come il W e la Z. Questi eventi sono molto meno frequenti di quelli di Minimum
Bias essendo caratterizzati da sezioni d’urto inferiori.
Un altro aspetto importante delle collisioni pp e l’impossibilita di definire a priori
l’energia del centro di massa dei due partoni che interagiscono. Infatti, come si puo
vedere dalla figura 1.11 solamente una frazione x dell’impulso del fascio (compresa
tra 0 e 1) e trasportata dai due partoni che interagiscono. Le frazioni xa e xb dei due
partoni che interagiscono sono in generale diverse. Questo fatto ha due conseguenze:
l’energia dell’interazione nel centro di massa√s =√xaxbs varia da evento a evento.
Questo da la possibilita di esplorare un largo spettro di energia. Inoltre il centro di
31
fa/A(xa, Q2)
fb/B(xb, Q2)
σ(ab→ X)|s = xaxbs
Particelle del fascio
Parton density function
Quark spettatori
”Hard scattering”
Figura 1.10: Disegno schematico di una collisione protone-protone.
Parton Density Function of proton [Q2=(10 GeV)2]
x
xf(x
,Q2 )
d
d–
u
u–s
c
b
gCTEQ6L
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
10-3
10-2
10-1
(a)
Parton Density Function of proton [Q2=MW2]
x
xf(x
,Q2 )
d
d–
u
u–s
cb
gCTEQ6L
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
10-3
10-2
10-1
(b)
Figura 1.11: In figura sono mostrate le funzioni di distribuzione dell’impulso dei
partoni di un protone di Q2 = (10 GeV)2 e Q2 = M2W .
32
massa dell’interazione non e fermo nel sistema del laboratorio, ma ha un boost lungo
la direzione del fascio. Per questa ragione, per descrivere l’interazione, si preferisce
scegliere variabili cinematiche invarianti rispetto a trasformazioni di boost.
La sezione d’urto totale per una interazione ad alto impulso trasferito puo essere
scritta come:
σ =∑
a,b
∫dxadxbfa(xa, Q
2)fb(xb, Q2)σ(xa, xb) (1.5)
dove la somma deve essere fatta su tutti i partoni a e b dei due protoni, fa(xa, Q2)
e fb(xb, Q2) sono le probabilita che un partone abbia una frazione xa, xb dell’impulso
del protone e Q2 e il quadrimpulso scambiato durante l’interazione. Mentre σ(xa, xb)
e la sezione d’urto di interazione tra i partoni a e b.
In questi eventi la produzione di particelle pesanti e il loro decadimento in parti-
celle piu leggere puo portare alla produzione di jet adronici, cioe fasci di adroni molto
collimati. Una ottimale ricostruzione dei jet e per questo motivo molto importante
per l’identificazione dei prodotti delle collisioni pp.
33
34
Capitolo 2
Il tracciatore al silicio di CMS
Il tracciatore e un componente fondamentale negli esperimenti di fisica delle alte
energie: esso permette di ricostruire le traiettorie delle particelle cariche all’interno
del rivelatore e di misurarne con precisione il raggio di curvatura, legato all’impulso
trasverso pT , al campo magnetico e alla carica della particella dalla relazione:
pT = 0.3ZBR,
dove Z e la carica della particella che si muove in un campo magnetico di intensita
B (espressa in Tesla), mentre R (espresso in metri) e il raggio di curvatura della
particella e pT e espresso in GeV/c. Una buona precisione nella misura del raggio
di curvatura della particella porta a una precisa determinazione del suo impulso
trasverso pT e quindi della cinematica dell’evento.
2.1 La geometria del tracciatore
Considerando il flusso di particelle cariche previsto nella fase di alta luminosita di
LHC, si possono distinguere 3 regioni principali del tracciatore di CMS [24]:
• Vicino al vertice di interazione, alla distanza di circa 10 cm, il flusso di parti-
celle sara di circa 107/s: in questa regione sono installati dei rivelatori a pixel,
35
delle dimensioni di 150× 100 µm2, cosı da avere una densita di particelle che
attraversano il rivelatore di 10−4 per pixel, per ogni collisione dei fasci di LHC
(una ogni 25 ns).
• Nella regione che va da 20 < r < 55 cm la densita diminuisce a tal punto
da potere usare rivelatori a microstrisce, composti da strisce1 di lunghezza di
circa 10 cm e passo2 che varia da 80 µm a 120 µm, con una densita di particelle
di circa il 2-3% per modulo di rivelazione (768 pixel o 512 strisce), per ogni
collisione di LHC.
• Infine, nella regione piu esterna, con r > 55 cm, la densita di particelle per-
mette di usare rivelatori a microstrisce con una dimensione di circa 25 cm e
un passo da 120 µm a 180 µm.
In figura 2.1 e mostrata la sezione longitudinale di un quarto del tracciatore: esso
ha un raggio esterno di 110 cm, una lunghezza di circa 540 cm e copre una regione
di angolo solido corrispondente a |η| < 2.5. Il tracciatore si divide nelle seguenti
parti:
• Pixel: e il rivelatore di vertice. Si divide in una parte detta barrel, che ha
forma cilindrica, e in una parte detta forward, che e a forma di disco e chiude
le estremita del rivelatore. E’composto da 3 strati di rivelatori a pixel nella
regione barrel, situati a 4, 7, 11 cm dal centro del rivelatore. Nella regione
forward ci sono invece due piani di pixel.
• TIB: la parte piu interna del barrel, di forma cilindrica, situata tra r = 20 cm
e r = 55 cm, composta da 4 strati di rivelatori a microstrisce.
• TID: tra il TIB e la parte endcap, composta da 3 dischi di rivelatori a
microstrisce su ogni lato.
1Col termine strisce si indicano le impiantazioni a forma di strisce del rivelatore al silicio.2Si indica con questo termine la distanza tra due strisce successive.
36
• TOB: la parte piu esterna del barrel, di forma cilindrica, situata tra r = 55 cm
e r = 110 cm, composta da 6 strati di rivelatori a microstrisce.
• TEC: la regione “in avanti”, che e formata da 9 dischi a microstrisce per ogni
endcap.
Figura 2.1: In figura e mostrato un quarto del tracciatore di CMS, nel piano rz. In
rosso sono disegnati i piani con moduli a una singola faccia, in blu quelli a doppia
faccia (stereo), realizzati incollando “back to back”due rivelatori a singola faccia
ruotati di 100 mrad. In viola e mostrato il rivelatore a pixel.
Il tracciatore di CMS e composto sia da volumi sensibili che non sensibili. Dal
momento che il tracciatore, per funzionare, ha bisogno di grande potenza elettrica,
deve essere dissipata una gran quantita di calore. Quindi una parte consistente
del tracciatore e occupata da cavi elettrici e tubi per il raffreddamento. Le altre
parti non sensibili sono le strutture di supporto, l’elettronica di rivelazione, la beam
pipe, lo schermo termico al di fuori del tracciatore. Il peso totale del tracciatore
e di circa 4 Tonnellate, equivalente a una densita di 0.17 g/cm3. Una particella
al minimo di ionizzazione perde circa 35 MeV/m, attraversando il tracciatore. La
lunghezza di radiazione media x/X0 nella regione |η| < 0.8 e di 0.4, il che vuol dire
che quasi il 40% dei fotoni andranno incontro a processi di conversione all’interno
37
del volume del tracciatore. In figura 2.2 e mostrata la scomposizione del materiale
del tracciatore, come e descritta nella simulazione del rivelatore [26], in termini di
lunghezza di radiazione X0, in funzione di η. I picchi intorno a |η| = 1.2 sono dovuti
all’attraversamento dei cavi di alimentazione.
come mostrato in figura 2.2, il maggiore contributo alla lunghezza di radiazione
nel tracciatore e portato dalle strutture di supporto (36%), dalle fibre ottiche per il
trasporto del segnale e dai cavi di alimentazione (24%). Le schede per l’elettronica
di acquisizione contribuiscono per il 16%, i tubi di raffreddamento e il fluido per il
14%. I volumi sensibili di Silicio rappresentano solo il 9% del totale.
Figura 2.2: Spessore dei rivelatori di cui e composto il tracciatore (a sinistra) e delle
varie componenti del tracciatore stesso (a destra) in funzione di η, espresso in unita
di lunghezze di radiazione X0 [26].
2.2 Il tracciatore a pixel
Il rivelatore di vertice, mostrato in figura 2.3, e fondamentale per gli studi di b-
tagging e per la misura del parametro d’impatto, oltre ad essere usato in CMS come
punto di partenza per la ricostruzione delle tracce.
38
La parte barrel e composta da tre strati interni, divisi in due semi-cilindri, col-
locati a una distanza media dal centro di 4.4 cm, 7.3 cm e 10.2 cm dal centro e
lunghi 53 cm. Ogni semicilindro e composto da ladder e half ladder: queste sono le
strutture che alloggiano i moduli dei rivelatori e le strutture per il raffreddamento
degli stessi e contengono 8 moduli ciascuno. Il barrel e formato in tutto da 768
moduli a pixel.
La parte in avanti, (detta endcap) e composta da 2 dischi per ogni lato: ogni
disco e diviso in 24 “spicchi”, su ognuno dei quali sono montati 7 moduli di diversa
dimensione. Gli “spicchi” sono ruotati di 20 rispetto all’asse trasversale del cilindro
del tracciatore, per beneficiare dell’effetto dell’angolo di Lorentz3, facendo assumere
al rivelatore un forma a turbina; sia i moduli che gli “spicchi” si sovrappongono, in
modo da assicurare ermeticita al rivelatore. I 2 dischi laterali, posti ad un raggio da
6 a 15 cm, sono a |z| = 34.5 cm e |z| = 46.5 cm. I dischi dell’endcap contengono in
totale 672 moduli.
Il rivelatore a pixel e costituito da moduli di silicio con substrato di tipo n ed
impiantazioni di tipo n+ su una faccia. In questo modo si ottiene una matrice com-
posta di tante giunzioni una accanto all’altra. L’altra faccia del substrato e invece
drogata con uno strato p+, che funge da contatto elettrico ohmico. L’elettronica
di lettura [25] e fatta da circa 16000 chip, saldati ai singoli moduli del rivelatore
tramite microsaldature dette bump bonding, come mostrato in figura 2.4.
Per ottenere la risoluzione ottimale nella determinazione della posizione del
vertice i pixel hanno una forma approssimativamente quadrata (100×150 µm2) in
entrambe le coordinate (r, φ) e z.
Il forte effetto dell’angolo di Lorentz, di circa 23 per moduli non irradiati, ha
l’effetto di migliorare la risoluzione in rφ. Infatti la deriva degli elettroni prodotti
dal passaggio di una particella carica attraverso il rivelatore, per l’effetto combinato
3L’angolo di Lorentz e l’angolo fra la direzione di deriva dei portatori di carica e le linee di
forza del campo elettrico nel rivelatore. Per un trattazione dettagliata dell’angolo di Lorentz nel
rivelatore a pixel di CMS e della sua misura vedi [27].
39
del campo elettrico e magnetico, causa una separazione della carica su piu pixel e di
conseguenza la ricostruzione del punto di passaggio risulta piu precisa (in figura 2.5
e mostrato il drift dei portatori di carica all’interno del rivelatore). La risoluzione
con cui viene misurato il punto di passaggio arriva fino a 20 µm lungo z e 10 µm
lungo rφ [27].
A causa dei danni da radiazione, i rivelatori verranno sostituiti durante i 10 anni
di attivita di CMS.
Figura 2.3: In figura il rivelatore a pixel del tracciatore di CMS.
2.3 Il tracciatore a microstrisce
Il tracciatore a microstrisce si estende nella regione |η| < 2.5, e lungo 5.6 m ed ha
un diametro di circa 2.4 m. E’ composto da 15400 moduli, montati su una struttura
in fibra di carbonio e operera a una temperatura di -20 C.
La regione Barrel del tracciatore e divisa in 2 parti: TIB/TID (la regione piu
interna) e TOB (quella piu esterna):
• Tracker Inner Barrel (TIB): e composto da 4 strati cilindrici di rivelatori: ogni
40
pixel implants
Figura 2.4: Visione schematica del rivelatore a pixel.
Figura 2.5: Segnale dovuto al passaggio di una particella ionizzante in un rivelatore
a pixel.
41
Figura 2.6: Nella foto un modulo del TIB layer 3.
cilindro e diviso in quattro parti chiamate shell, due a z positivo (inferiore e
superiore) e due a z negativo. All’interno di ogni shell i moduli sono siste-
mati in stringhe, sia nella parte esterna che in quella interna dello strato di
rivelatore. Il TIB copre la regione fino a |z| < 65 cm; i rivelatori al silicio in
questa regione del tracciatore hanno uno spessore di 300 µm e un passo tra le
strisce che varia da 80 a 120 µm; i primi 2 strati di rivelatore sono composti
da moduli a doppia faccia, chiamati anche “stereo”: questi sono composti da
due moduli incollati back to back, ruotati di 100 mrad l’uno rispetto all’altro.
Tutti i moduli, a parte gli stereo, hanno le strisce lungo la direzione z, per
questo motivo la misura del punto di passaggio della particella e piu precisa
nelle coordinate rφ (in figura 2.6 una foto di un modulo del layer 3).
• Tracker Outer Barrel (TOB): e formato da 6 strati di rivelatori, posti nella
regione 55 < r < 110 cm, divisi in rod, su ognuno dei quali sono alloggiati
6 moduli. I 2 strati piu interni montano moduli a doppia faccia. Poiche in
42
questa regione la densita di particelle sara piu bassa, i rivelatori al silicio hanno
un passo maggiore rispetto a quello dei moduli del TIB (da 120 a 180 µm) e
le strisce di cui sono composti hanno una lunghezza maggiore. Per mantenere
basso il livello del rapporto segnale rumore S/N sono pero usati sensori dello
spessore di 500 µm.
Le regioni Endcap sono a loro volta divise in due parti: TEC (Tracker End Cap)
e TID (Tracker Inner Disks).
• Tracker End Cap (TEC): ogni TEC comprende 9 dischi che si estendono nella
regione 120 cm < |z| < 280 cm. Essi sono divisi in 8 petali, in ciascun petalo
i moduli sono montati a forma di anello. Ogni petalo contiene da 4 a 7 anelli,
a seconda della posizione lungo z. I moduli della TEC sono montati alternati-
vamente sulla parte interna e su quella esterna del disco, con le strisce dirette
radialmente. I due anelli piu interni e il quinto della TEC sono equipaggiati
con moduli a doppia faccia. Lo spessore dei sensori e di 300 µm per i 3 anelli
piu interni e di 500 µm per gli altri.
• Tracker Inner Disk (TID): il TID e composto da 6 piccoli dischi (3 su ogni lato),
posti nella regione compresa tra TIB e TEC. Anche i moduli del TID sono posti
ad anello, con le strisce in direzione radiale, e posizionati alternativamente sulla
parte interna e su quella esterna del disco. I due anelli piu interni del TID sono
equipaggiati con moduli a doppia faccia. Lo spessore dei sensori e di 300 µm.
2.3.1 Il rivelatore a microstrisce e il sistema di acquisizione
Il rivelatore a microstrisce di silicio (figura 2.7) e costituito da un substrato, di tipo
n, su una faccia del quale sono realizzate delle impiantazioni di tipo p+, a forma
di strisce lunghe quanto il substrato. La superficie opposta a quella dove ci sono le
strisce ha un drogaggio di tipo n+ che funge da contatto elettrico di tipo ohmico. Le
43
Figura 2.7: Disegno schematico di un rivelatore a microstrisce di Silicio.
Numero di moduli spessore (µm) passo (µm)
TIB 2724 300 80/120
TOB 5208 500 80/180
TID 816 300 97/128/143
TEC 2512 300 96/126/128/143
TEC (2) 3888 500 143/158/183
Tabella 2.1: Nella tabella sono descritti i vari tipi di moduli nel rivelatore a micro-
strip. Per i moduli di TEC e TID e mostrato il passo medio: essendo le strip poste
radialmente il passo non e costante su tutto il modulo. Con TEC si intendono i tre
anelli piu interni, con TEC(2) i restanti sei.
44
strisce sono accoppiate all’elettronica di lettura tramite metallizzazioni in alluminio
isolate dalla zona delle impiantazioni da uno strato di ossido di silicio.
Il sistema di acquisizione del tracciatore a microstrisce, schematizzato in figu-
ra 2.8 e composto da un chip di lettura APV25 [29] (4 o 6 per ogni modulo), fibre
ottiche per il trasporto dei segnali e da un Front End Driver (FED) [30], che si
occupa di convertire il segnale da analogico a digitale.
2.3.2 Il chip APV25
Accoppiata ad ogni sensore a microstrisce vi e l’elettronica di front end. Il chip
APV25 campiona, amplifica, memorizza i segnali provenienti dai 128 canali del
sensore a microstrip. Sono previste due modalita diverse per la presa dati:
• Modalita picco: in questa modalita ogni volta che il chip riceve un segnale di
trigger restituisce in uscita il campionamento del picco del segnale. Questa
modalita verra usata nel periodo di bassa luminosita e permette di migliorare
il rapporto segnale rumore S/N4, ma risente del fenomeno di pile up.
• Modalita deconvoluzione [31]: in questa modalita viene fatta una somma pesa-
ta di 3 campionamenti consecutivi. Questo procedimento restituisce un segnale
con un tempo di salita di 25 ns (invece di 50 ns come nella modalita picco)
quindi verra usata nel periodo di alta luminosita dal momento che non risente
del fenomeno di pile up.
I segnali cosı creati vengono inviati a dei MultiPlexer (MUX) [32], uno per ogni
coppia di APV, che trasmette sequenzialmente un campionamento per ogni ampli-
ficatore di carica (per l’operazione di lettura servono infatti 256×50 ns); i segnali
analogici vengono convertiti in segnali ottici prima di essere trasmessi ai FED, at-
traverso delle fibre ottiche. L’uscita dei laser che trasportano il segnale e modulata
dall’altezza del segnale stesso.
4Con S/N indico il rapporto tra il segnale su un sensore e il rumore sul sensore stesso.
45
Il FED e il dispositivo che provvede alla digitalizzazione dei dati provenienti dagli
APV-25. esso e composto da un convertitore opto-elettrico, che converte il segnale
da ottico ad elettrico, e da un ADC a 10 bit, che riceve il segnale dal convertitore e
lo digitalizza. Il FED inoltre riceve il clock di LHC ed il segnale di trigger. Ricevuto
il segnale di trigger, il FED si mette in attesa dell’arrivo dei dati campionando i
segnali provenienti dalle fibre in ingresso con una frequenza di 40 MHz. Tutti i
campionamenti vengono poi trascritti su un memoria temporanea. Il programma di
acquisizione si occupa poi di scaricare i dati dalla memoria del FED e di scriverli su
disco.
digitaloptical link
Optical transmitter
AAA
AAAAAAAAAAAAAAAA
AAAAAAAAAAAAAAAAAAA
ADC DSP
RAMTTCrx
TTCrx µPFront End Driver
T1
Front End Controller
I2C
Front End ModuleDetector
Control module
PLL
CLK
PLLCCU
AAAAAAAAAAAA
AAAAAAAAAA
AAAAAAAAAAAAAA
AAA
AAAAAA
AAAAAAAAAAAA
AAAAAAAAA
analogueoptical link
DCU
Tx/Rx
Tx/Rx
APV
APVMUX
256:1
Figura 2.8: Schema del sistema di controllo e di acquisizione del tracciatore.
L’elettronica di controllo
L’elettronica di controllo del tracciatore a microstrisce comprende circa 300 control
ring, cioe la catena opto-elettronica che ha il compito di distribuire i segnali di
clock e trigger a tutta l’elettronica di acquisizione. Questi segnali sono distribuiti
46
dal FEC (Front End Controller) [33] attraverso collegamenti opto-digitali a Digital
Opto Hybrids (DOH) [34], che operano la conversione da segnale ottico a elettronico,
prima di inviare i segnali di controllo a tutta l’elettronica di acquisizione.
Danneggiamento da radiazione
Come detto in precedenza, ad LHC verranno fatti collidere protoni all’energia di 14
TeV nel centro di massa: a queste energie la sezione d’urto totale di interazione e
attorno ai 100 mb. Questo vuol dire che, alla luminosita a cui operera LHC, CMS
osservera circa 109 eventi/secondo.
A causa dell’elevato flusso di particelle a cui sara sottoposto ogni singolo rivela-
tore di CMS, i rivelatori stessi e l’elettronica di lettura associata sono stati costruiti
in materiali resistenti alla radiazione.
Gli effetti di danneggimento da radiazione nei rivelatori al silicio si possono
classificare in due categorie: effetti di superficie, causati dall’accumulo di carica
nello strato di ossido, ed effetti di bulk, che causano un aumento della corrente di
polarizzazione inversa nella giunzione, la diminuzione dell’efficienza di raccolta di
carica e la variazione della concentrazione di sostanze droganti nel substrato.
In particolare, al fine di attenuare gli effetti di inversione di tipo (il graduale
cambiamento di concentrazione dei portatori, da tipo n a tipo p, a causa della
radiazione a cui sono sottoposti i moduli di silicio) i silici scelti per il tracciatore di
CMS sono del tipo a bassa resistivita.
2.4 Il software di ricostruzione di CMS: CMSSW
Il software di ricostruzione di CMS (CMSSW) e scritto in linguaggio C++ e consiste
di un centinaio di “pacchetti”.
CMSSW e strutturato in maniera da avere un solo eseguibile, chiamato cmsRun,
e diversi plug-in, a cui corrispondono delle specifiche applicazioni. Questa struttura
del software e molto diversa da quelle tradizionali, in cui sono usati diversi eseguibili,
47
uno per ogni tipo di compito da eseguire (per esempio ricerca degli hit nel tracciatore,
fit di una traccia a partire dagli hit, ricostruzione degli hit a partire dalle informazioni
nel rivelatore, simulazione di eventi o della risposta del rivelatore stesso al passaggio
di una particella ecc.).
2.4.1 Il file di configurazione e l’eseguibile cmsRun
All’eseguibile cmsRun deve essere passato come argomento un file di configurazione
scritto in python, all’interno del quale vengono specificate le azioni da eseguire du-
rante l’analisi, la ricostruzione o la simulazione di un evento. In dettaglio, esso deve
specificare al suo interno:
• Source: il file che contiene i dati da analizzare/ricostruire. Generalmente e un
file ROOT [35].
• Module: tutti i moduli che si vogliono eseguire, insieme ai parametri che si
vogliono eventualmente cambiare rispetto a quelli standard.
• Output: il file ROOT all’interno del quale salvare il risultato dell’esecuzione.
• Path: l’ordine esatto in cui devono essere eseguiti i moduli.
Tutta la ricostruzione, sia dei dati reali che di quelli simulati con tecniche Monte
Carlo, e contenuta in unico oggetto, detto Event: al suo interno vengono imma-
gazzinate tutte le informazioni sull’evento oggetto dell’analisi. Al termine dell’e-
secuzione di ciascun modulo, l’output del modulo stesso viene trascritto all’interno
dell’Event. In questo modo, al termine dell’esecuzione, l’oggetto Event contiene sia
i dati di partenza che quelli analizzati. Il processo di ricostruzione e schematizzato
in figura 2.9.
Per poter analizzare un evento e necessario anche avere a disposizione le infor-
mazioni sul rivelatore, che possono cambiare durante il tempo, tra una presa dati
e un’altra. Queste sono ad esempio il valore del campo magnetico, i parametri del-
l’allineamento e della geometria ecc. Tipicamente tutte queste informazioni restano
48
costanti per piu di un evento. L’intervallo di tempo per il quale queste informa-
zioni restano costanti e detto IOV (Interval Of Validity). L’Event Setup si occupa
di gestire queste informazioni e verificare l’IOV sia sempre maggiore della durata
dell’evento. Per fare cio l’Event Setup fa uso di due moduli differenti:
• ESSource: determina gli IOV di un certo Record (un Record e definito come
un insieme di dati con lo stesso IOV) e puo fornire dati leggendo da un database
(per esempio calibrazioni).
• ESProducer: interviene quando c’e un cambio di IOV per l’evento che stia-
mo considerando. Ad esempio il Producer legge la geometria del tracciatore,
le correzioni di allineamento e combina queste due informazioni per creare
la geometria allineata del tracciatore. Ogni volta che l’allineamento cambia
l’EventSetup dice al ESProducer di creare una nuova geometria.
Nel file di output, oltre all’evento, vengono salvate anche tutte le informazioni
sull’origine del file, come il file di input e i parametri dei vari moduli usati nella
ricostruzione dell’evento.
2.5 La ricostruzione degli hit nel tracciatore
La ricostruzione degli hit nel tracciatore parte dai segnali provenienti dai FED in
conteggi ADC, e si divide in due passi successivi: la costruzione del cluster e la
determinazione della posizione dell’hit, con l’errore associato.
La parte di ricostruzione degli hit e svolta da 3 moduli di CMSSW, che prendono
in input i segnali provenienti dall’acquisizione, espressi in conteggi ADC, e producono
appunto 3 tipi di oggetti: Digi, Cluster, RecHit.
49
Figura 2.9: Nella figura e schematizzato il funzionamento dell’eseguibile cmsRun.
L’input da analizzare viene passato ai moduli da eseguire, assieme all’EventSetup.
Attraverso il file di configurazione vengono specificati i parametri dei moduli che
verranno eseguiti. L’Output dell’analisi viene scritto nell’Event stesso.
2.6 La ricostruzione degli hit nei pixel
In questa sezione illustrero il procedimento di ricostruzione del punto di passaggio
della particella per quanto riguarda il rivelatore a pixel [36].
Costruzione del Cluster
Il primo passo della costruzione del cluster e la ricerca del cosiddetto seed, cioe un
sensore pixel che presenti un segnale al di sopra dell soglia S/N > 6. All’interno del
cluster vengono poi inclusi tutti i pixel adiacenti al seed che presentano segnali al
di sopra della soglia S/N > 5. Vengono considerati adiacenti anche due pixel posti
in diagonale. Una volta raccolti tutti i pixel che soddisfano queste richieste, viene
valutato il rapporto segnale-rumore del cluster cosı ottenuto: se Sclust/N > 10 allora
il cluster e conservato.
50
Determinazione della posizione dell’hit
La ricostruzione degli hit (RecHit) e la determinazione del punto di passaggio del-
la particella, con relativo errore, si basa sulla misura dell’estensione spaziale della
distribuzione di carica rilasciata dalla particella sul sensore e sull’angolo di impat-
to della particella. In figura 2.10 sono mostrati gli angoli di impatto α e β della
particella sui sensori pixel. Essi sono definiti rispettivamente come le proiezioni del-
l’angolo di impatto sui piani x − z e y − z, nelle coordinate locali dei sensori. Il
sistema di coordinate locali dei pixel ha l’asse z ortogonale alla superficie del sensore.
Per i sensori del barrel l’asse x e sul piano trasverso alla direzione del fascio e l’asse
y e parallelo alla direzione del fascio. Nella zona endcap l’asse x e invece lungo la
direzione radiale.
La larghezza della distribuzione di carica rilasciata dalla particella e definita co-
me la proiezione sul piano xy (delle coordinate locali) della carica rilasciata. Nella
direzione x alla larghezza del cluster contribuisce sia l’effetto dovuto all’inclinazione
della traccia, sia l’effetto dell’angolo di Lorentz. Per i sensori della parte barrel lo
shift dovuto all’angolo di Lorentz e 156 µm, maggiore di quello dovuto all’inclina-
zione della traccia. Anche nella parte forward, a causa de fatto che gli spicchi che
compongono il rivelatore sono ruotati di circa 20 rispetto all’asse x, e presente uno
shift di Lorentz di circa 53 µm, che contribuisce alla larghezza della distribuzione di
carica.
La posizione dell’hit viene stimata indipendentemente lungo le direzioni x e y.
Nel caso in cui la carica sia stata rilasciata in un solo pixel, la posizione dell’hit e il
centro del sensore colpito. Nel caso in cui il Cluster contenga piu di un pixel, viene
calcolato il centro del Cluster, corretto poi di una quantita che dipende dalla carica
depositata ai bordi del Cluster stesso e dagli angoli di impatto della particella sul
sensore, determinati conoscendo i parametri della traccia, quando questi sono di-
sponibili; altrimenti gli angoli di impatto vengono valutati assumendo che la traccia
provenga dal centro nominale di interazione.
Le coordinate ottenute nel sistema di riferimento locale e le relative incertezze
51
sono trasformate in coordinate espresse nel sistema di riferimento globale di CMS
sfruttando le informazioni sulla geometria contenute nel database.
β
γ
α
x
z,Ey,-B (x , y )
00
Figura 2.10: Nella figura sono mostrati l’angolo di impatto α della traccia e l’angolo
β, nel sistema di riferimento locale dei pixel.
2.7 La ricostruzione degli hit nelle microstrisce
I Digi sono il punto di partenza della ricostruzione degli hit nelle microstrisce. Nel
caso dei dati i file provenienti dall’acquisizione vengono convertiti nel formato di
CMSSW. Nell’evento vengono salvate delle collezioni che contengono il segnale delle
strip colpite (Digi).
Nel caso del Monte Carlo viene simulata la raccolta di carica nelle strip a partire
dagli hit simulati nel tracciatore con GEANT [37] e crea le collezioni di Digi.
Da questo punto in poi la ricostruzione dei dati e delle simulazioni avviene
esattamente nello stesso modo.
Costruzione del Cluster
Il modulo che si occupa di creare i cosiddetti cluster prende in ingresso il vettore
di Digi prodotto dal passo precedente e cerca fra di essi quali sono da associare al
passaggio di una particella. Inoltre raggruppa in un vettore quei segnali riconducibili
52
al passaggio della stessa particella: questo vettore costituisce il Cluster. L’output
di questo modulo e quindi un oggetto, che ad ogni rivelatore associa un vettore di
Cluster.
L’algoritmo usato in CMSSW per individuare i Digi con cui formare i Cluster
si basa sul superamento di tre soglie in termini di rapporto segnale/rumore. I tre
passi seguiti dall’algoritmo sono:
• Seed Threshold: in questa fase l’algoritmo ricerca strip caratterizzate da segnali
che superano la soglia S/N > tSeed, che costituira il cosiddetto Seed del Cluster.
In genere viene scelto tSeed=4.
• Channel Threshold: vengono cercate tutte le strip intorno al Seed, con segnali
sopra la soglia S/N > tChannel (tipicamente tChannel=3). Inoltre vengono inse-
rite nel Cluster anche quelle strip che non superano la soglia, ma che si trovano
tra due strip che sono sopra soglia. Tali strip sono dette Hole.
• Cluster Threshold: Si verifica che il rapporto tra il segnale totale del Cluster
(somma dei segnali delle strip che lo compongono) e il suo rumore (ottenuto
dalla somma quadratica dei rumori delle singole strip) sia maggiore di una
certa soglia tCluster, con valore tipico 5.
Determinazione della posizione dell’hit
L’ultimo modulo si occupa di creare i RecHit, a partire dai Cluster. I RecHit non
sono altro che i punti di passaggio della particella, espressi nelle coordinate locali
del rivelatore.
Il sistema di riferimento locale di ciascun modulo e mostrato in figura 2.11. Esso
e un sistema destrorso di coordinate cartesiane: ha come origine il centro del modu-
lo, l’asse y e parallelo alla strip centrale, con il verso in direzione opposta al lato su
cui e montato il circuito di lettura, l’asse z ortogonale al modulo e uscente dal lato
giunzione. La posizione dei RecHit in coordinate locali viene calcolata dal centroide
53
Figura 2.11: In figura il sistema di riferimento locale di un modulo rettangolare: a
sinistra un modulo mono, a destra uno stereo.
dei Digi che compongono il Cluster, pesato con la carica. Nel caso dei rivelatori a
singola faccia la coordinata misurata con maggior precisione e quella perpendicolare
alla direzione delle strip, mentre la posizione lungo y viene assunta uguale a zero,
cioe al centro della strip. Nel caso dei sensori a doppia faccia invece il calcolo della
posizione procede nel seguente modo: viene definito un modulo virtuale, detto glued,
posto tra il modulo mono e quello stereo; i Cluster del rivelatore vengono proiettati
su questo modulo virtuale, seguendo l’inclinazione della traccia, inizialmente suppo-
sta rettilinea e avente origine nel centro di interazione; infine vengono calcolate le
coordinate dei punti dell’intersezione e i relativi errori. Se le coordinate di questo
punto cadono all’interno del modulo, oppure entro 3 deviazioni standard dal bordo,
questo viene considerato valido ed e memorizzato come RecHit glued.
In presenza di un campo magnetico viene inoltre effettuata una correzione sulla
posizione del RecHit che tiene conto della deviazione dei portatori di carica nel
rivelatore a causa della forza di Lorentz.
Le coordinate dei RecHit e le relative incertezze sono poi trasformate in coordi-
nate espresse nel sistema di riferimento globale di CMS attraverso le informazioni
sulla geometria contenute nel database. In questo modo possono essere usate per la
ricostruzione delle tracce.
54
Capitolo 3
La ricostruzione delle tracce
In un ambiente con alta molteplicita di tracce lasciate dalle particelle cariche, come
quello in cui operera il tracciatore di CMS, la ricostruzione delle tracce necessita di
una ricerca efficiente dei punti di passaggio della particella nel tracciatore e di una
veloce determinazione dei parametri delle tracce. Nel tracciatore di CMS, il primo
obiettivo e semplificato dalla disposizione dei rivelatori, che rendono il tracciatore
praticamente ermetico (fino a η = 2.5) per particelle che originano dal centro di
interazione. Mentre il fatto che il campo magnetico sia pressoche costante per tutto il
volume del rivelatore e che la maggior parte del materiale non sensibile (almeno nella
regione barrel) e concentrata intorno ai sensori al Silicio, velocizzano la ricostruzione
delle tracce.
La complessita della ricostruzione delle tracce dipende in generale dall’evento
da ricostruire. Tuttavia, in un collisionatore adronico come LHC, la produzione di
particelle massive e spesso accompagnata da jet, all’interno dei quali la ricostruzione
delle tracce diventa difficile. Nel caso di questi eventi (come ad esempio la produzione
di una coppia tt, che a sua volta decade formando jet adronici) il numero di hit lasciati
dalle particelle nel tracciatore e dell’ordine di mille. Il numero di semi (ovvero seed, i
punti di partenza per la ricostruzione delle tracce, che trattero in dettaglio in seguito)
e dell’ordine di cento, come e dell’ordine di cento il numero di tracce ricostruite per
ogni evento. La ricostruzione efficiente delle tracce e quindi un compito per il quale,
55
in questi casi, servono algoritmi dedicati e ottimizzati per lo specifico evento.
In questo capitolo descrivero in dettaglio in che maniera viene modellizzata la
traccia; nel paragrafo successivo descrivero il Kalman Filter, che e il metodo di
fit alla base dell’algoritmo usato da CMS per ricostruire le tracce; nel paragrafo
successivo descrivero i vari passi della ricostruzione e del fit delle tracce, a partire
dagli hit; infine mostrero le prestazioni della ricostruzione standard.
3.1 Il modello della traccia
L’equazione di moto di una particella carica in un campo magnetico costante B(x)
e descritta dalla Forza di Lorentz:
F =d
dt
(mdx
dt
)= qv ×B(x), (3.1)
dove F e la forza di Lorentz, m la massa della particella, q la carica, v la sua
velocita e B(x) il campo magnetico costante nel tempo, in funzione del vettore
posizione x.
Passando alla notazione in cui s(t) e la distanza lungo la traiettoria, la cosiddetta
“coordinata curvilinea”, e v = ds/dt e il modulo della velocita v, valgono le seguenti
relazioni:dx
dt=dx
ds
ds
dt=dx
dsv (3.2)
d2x
dt2=d2x
ds2v2. (3.3)
In questa notazione l’equazione 3.1 puo essere espressa in termini geometrici:
d2x
ds2=
q
mv
dx
ds×B(x). (3.4)
In questa equazione ci sono 6 costanti di integrazione; tuttavia, utilizzando la
relazione: (dx
ds
)2
+
(dy
ds
)2
+
(dz
ds
)2
= 1,
dove x, y e z sono le componenti del vettore posizione x, e con una scelta arbitraria
di una delle coordinate (la superficie di riferimento), restano soltanto 5 parametri
56
liberi, che definiscono la traccia, supponendo conosciuta la massa: due parametri
per il punto “di impatto” a z = cost., due per la direzione della traccia in quel
punto, uno per l’inverso dell’impulso.
Mettiamoci nel caso di campo magnetico omogeneo, parallelo all’asse z, in modo
che B = Bez, con ez = (0, 0, 1). L’equazione di moto della particella diventa:
d2x
ds2=
q
mv
dy
dsB
d2y
ds2= − q
mv
dx
dsB
d2z
ds2= 0 (3.5)
La soluzione di questo sistema di equazioni e un’elica, con l’asse parallelo a z:
x(s) = x0 +RH
(cos
(φ0 +
hS
RH
cosλ
)− cosφ0
)
y(s) = y0 +RH
(sin
(φ0 +
hS
RH
cosλ
)− sinφ0
)
z(s) = z0 + s sinλ (3.6)
Dove s e la “coordinata curvilinea” lungo l’elica, (x0, y0, z0) e il vettore posizione per
s = 0, λ = arcsin(dz/ds), RH e il raggio proiettato dell’elica, φ0 e l’angolo azimutale
al punto di origine della traccia. In realta sono usati come parametri della traccia le
grandezze derivate d0 (proiezione del vettore (x0, y0, z0) sul piano x− y) e dz = z0.
I parametri dell’elica sono mostrati nella figura 3.1.
3.1.1 Limiti nella ricostruzione delle tracce
In generale, il numero minimo di misure richieste per stimare i parametri di una
traccia dipende dal numero di parametri da determinare. Nel caso del moto di una
particella in un campo magnetico, la traiettoria della particella e un’elica, come
abbiamo visto. Il numero di parametri da determinare e quindi 5. Il tracciatore
di CMS deve quindi essere in grado di rilevare il passaggio di una particella in
57
yy
xx
(x ,y )
RRHH
Track
HH HH
ΦΦ
••(x ,y )
00
00
00
ppyy
ppTT
ppxx
ϕϕ
ΦΦ
zz
λλ lar
RRΦΦ
zz
Track
ϑϑ
zz imp
λλ
dip
polar
Figura 3.1: I parametri dell’elica mostrati sul piano x-y (a sinistra) e nel piano RΦ-z
(a destra).
almeno 3 punti (due coordinate per ogni punto) del tracciatore per poter ricostruire
una traccia. Come abbiamo visto nel capitolo 2 il tracciatore di CMS e progettato
in modo da poter soddisfare questa richiesta, in un’ampia regione di energia della
particella da ricostruire.
Minimo impulso trasverso (pT,min)
Come abbiamo visto in precedenza, l’impulso trasverso pT (in GeV/c) di una par-
ticella (di carica unitaria), in moto in un campo magnetico, e legato al campo
magnetico B (in Tesla) e al suo raggio di curvatura R (espresso in metri) dalla
relazione:
pT = 0.3BR. (3.7)
Quindi, in linea di principio, trascurando lo scattering multiplo, e possibile misurare
pT facendo un fit di una circonferenza sui punti di passaggio misurati della particella
nel piano trasverso al campo magnetico. Il minimo pT delle tracce che attraversano
tutto il tracciatore e definito dal raggio della circonferenza che unisce il centro del
58
rivelatore (che e supposto essere il punto in cui si origina la particella) con il layer
piu esterno (vedi figura 3.2).
Nel caso di CMS il layer piu esterno e a circa 1 m di distanza dal centro del
rivelatore: in un campo magnetico di 4 T il minimo pT che dovrebbe avere una
particella per raggiungere questo layer e quindi di circa 0.6 GeV/c.
RRcc
Vertex
distance toouter layer
detector layers particle track
dd
radius of
curvature
yy
xx
Figura 3.2: Definizione di minimo pT necessario per attraversare il tracciatore. Il
raggio di curvatura e dato dalla meta della distanza tra il vertice e il layer piu
esterno.
Massimo impulso trasverso (pT,max)
Il massimo impulso trasverso misurabile pT,max e definito come la minima sagitta S
che permette di distinguere l’arco dalla sua corda (vedi figura 3.3). Vale dunque la
seguente relazione:
Rc =S2 +
(d2
)2
2S. (3.8)
Assumendo, come in precedenza, d = 1m e facendo l’ipotesi che la sagitta S sia
uguale al passo delle strip nel layer (S ≈ 120 µm) si ottiene un massimo pT rico-
struibile dell’ordine di 1 TeV/c. Piu precisamente, il segno dell’impulso trasverso
59
e quindi della carica della particella, non puo essere precisamente determinato se
l’errore su p−1T ricostruito e dell’ordine di p−1
T :
σ(p−1T ) ≈ p−1
T . (3.9)
ss
R − scc
RRcc
RRcc
d/2d/2
particle tracksagitta
radius of
curvature
half distance
inner − outer
hit
center of circle
Figura 3.3: Definizione di sagitta S. La sagitta e la distanza del punto medio della
corda di un arco dall’arco stesso. Piu aumenta il pT della particella, piu diminuisce
la sagitta. Quando la sagitta non e piu determinabile la traiettoria della particella
e indistinguibile da una linea retta.
3.2 Il Kalman Filter
Il Kalman Filter [38] e un metodo di fit ricorsivo, usato per stimare i parametri di un
sistema dinamico. L’applicazione del Kalman Filter al fit delle tracce e descritta in
dettaglio in [39]. Per poter applicare il metodo del Kalman Filter al fit della traccia,
la traccia stessa deve essere modellizzata come un sistema dinamico. Il vettore di
stato del sistema puo essere identificato con un vettore x di 5 parametri, che descrive
lo stato della traccia in ogni punto dello spazio. Per quello che ci proponiamo di
fare e sufficiente considerare il vettore di stato soltanto nei punti di intersezione della
60
traccia con i rivelatori: otteniamo cosı un sistema dinamico discreto. Il sistema di
equazioni che descrive l’evoluzione del vettore di stato in questo caso e:
xk = fk−1(xk−1) + wk−1, (3.10)
dove fk−1 e il propagatore della traccia dal rivelatore k − 1 al rivelatore k; wk−1 e
una variabile aleatoria, che rappresenta la deviazione della traccia dalla traiettoria
ideale, dovuta al multiple scattering tra un rivelatore e quello successivo. Il vettore
di stato non e pero misurato direttamente. In generale le quantita misurate mk sono
funzioni del vettore di stato, legate ad esso dalla relazione:
mk = hk(xk) + ǫk, (3.11)
dove hk e la funzione che lega il vettore di stato alla misura; mentre ǫk e il rumore
associato alla misura.
Nel caso piu semplice entrambe f e h sono delle funzioni lineari. In questo caso
le espressioni precedenti possono essere scritte come segue:
xk = Fk−1xk−1 + wk−1 (3.12)
e
mk = Hkxk + ǫk. (3.13)
Se invece f ed h non sono lineari esse possono essere approssimate con lo sviluppo
in serie di Taylor al primo ordine:
Fk−1 =∂f
∂x(x = xk−1). (3.14)
Hk =∂h
∂x(x = xk). (3.15)
L’evoluzione del vettore di stato indicato da k puo avvenire nello spazio, come
nel caso del fit di una traccia in un rivelatore, oppure nel tempo. Il metodo di fit
del Kalman Filter si basa su 3 operazioni:
61
• Filtering: la stima del vettore di stato attuale, basata sulla conoscenza delle
misure precedenti.
• Prediction: la stima del vettore di stato alla prossima intersezione.
• Smoothing: la stima aggiornata del vettore di stato, basata sulla conoscenza
delle misure includendo l’ultimo punto aggiunto.
Se ǫk e wk sono gaussiane, il Kalman Filter e il filtro ottimale. Nel caso che gli
errori non siano gaussiani e il miglior filtro lineare [39].
Diamo adesso alcune definizioni e notazioni:
• Ewk = 0, covwk = Qk.
• Eǫk = 0, covǫk = Vk = G−1k .
• xk: il valore vero del vettore di stato al rivelatore k.
• xk,upd: l’estimatore del vettore di stato, aggiornato con le misure fino al
rivelatore k − 1 (indicato sopra come filtering).
• xk,pred: l’estimatore del vettore di stato predetto, al rivelatore k (indicato sopra
come prediction).
• Ck,upd = covxk,upd.
• Ck,pred = covxk,pred.
Con queste notazioni possiamo ora dare le formule per calcolare gli estimatori
del vettore di stato, assieme con le matrici di covarianza associate. In presenza di
campo magnetico la funzione f(x) non e lineare, quindi occorre operare uno sviluppo
di Taylor, come in (3.14), prendendo anche gli ordini successivi al primo. Lo stato
predetto alla superficie k si ottiene propagando il vettore di stato aggiornato alla
superficie k − 1, come schematizzato in figura 3.4:
xk,pred = Fk−1xk−1,upd. (3.16)
62
Mentre la matrice di covarianza del vettore di stato predetto, alla superficie k,
si ottiene propagando la matrice valutata alla superficie precedente:
Ck,pred = Fk−1Ck−1,updFTk−1 + Qk−1. (3.17)
L’estimatore del vettore di stato aggiornato con l’informazione della misura m e
dato da:
xk,upd = xk,pred + Kk (mk −Hkxk,pred) , (3.18)
dove K e la cosiddetta Kalman Gain Matrix:
Kk =(C−1
k,pred + HTk V−1
k Hk
)−1HT
k V−1k . (3.19)
La matrice di covarianza aggiornata e:
Ck,upd = (I−KkHk)Ck,pred, (3.20)
dove I e la matrice unitaria.
L’operazione di Smoothing puo poi essere compiuta operando due Kalman Filter
in direzione opposta e combinando entrambi gli stati predetti sulla stessa superficie
con la misura.
I vantaggi del Kalman Filter rispetto a un fit globale sono i seguenti:
• Si puo utilizzare sia per cercare le tracce che per farne il fit.
• Non c’e bisogno di invertire matrici di grosse dimensioni e il tempo di compu-
tazione aumenta linearmente con il numero di misure della traccia. Per questo
e veloce anche in presenza di multiple scattering e di un gran numero di misure.
• La stima dei parametri della traccia e migliore.
• L’approssimazione lineare del modello della traccia deve essere valida solo in
un piccolo intervallo di spazio.
63
Figura 3.4: Nel disegno sopra e schematizzato il funzionamento del Kalman Filter:
i parametri della traccia vengono propagati dal rivelatore A al rivelatore B, poi ven-
gono combinati con l’informazione proveniente dalla misura sul rivelatore B, per
ottenere una stima migliore dei parametri.
3.3 La sequenza di ricostruzione
Il processo di ricostruzione delle tracce in CMSSW si divide in tre passi: ricerca dei
“semi” della traccia, da cui stimare i parametri iniziali (comunemente detto Seed
Finding ); la ricerca degli hit lasciati dalla particella sui diversi strati del tracciatore
(Pattern Recognition); infine il “fit” della traccia, a partire dagli hit trovati.
Attualmente, in CMSSW, esistono due metodologie di ricostruzione delle tracce,
per gli eventi che origineranno da collisioni tra protoni dei fasci. Il primo (Combi-
natorial Track Finder o anche CTF) esegue il Seeding soltanto sui layer dei Pixel,
oppure nei layer piu interni del tracciatore a microstrisce, usando tecniche derivate
dal Kalman Filter sia per cercare gli hit da associare alla traccia, sia per eseguire il
fit finale.
Il secondo metodo implementato nel software di CMS e il cosiddetto Road Search,
che usa soltanto hit nelle strip per costruire i Seed (uno in un layer interno e uno in
64
un layer esterno), cercando poi gli hit da associare alla traccia nella zona tra i Seed.
Anche in questo algoritmo il fit finale e svolto con un Kalman Filter.
La struttura modulare con cui sono implementati questi metodi permette di in-
tegrare facilmente componenti differenti, nuovi rispetto a quelli standard, e facilitare
cosı lo sviluppo e l’evoluzione dei metodi stessi.
3.3.1 Seed Generation
Il Seed di una traiettoria e il punto di partenza per la ricerca e l’assegnazione degli hit
alla traccia. Quindi deve fornire una stima iniziale di tutti i parametri della traccia
sufficientemente precisa, per potere poi usare algoritmi lineari (come il Kalman
Filter) per la ricerca degli altri hit appartenenti alla traccia. Inoltre le incertezze sui
parametri devono essere sufficientemente piccole, in modo da rendere meno estesa
la regione in cui avverra la ricerca degli hit successivi e diminuire cosı il tempo di
esecuzione.
La creazione dei Seed di una traiettoria puo essere fatta utilizzando coppie di hit
del rivelatore a pixel compatibili con il vertice, oppure tramite tripletti di hit [40].
Seeding da doppietti
Un doppietto di hit e formato da un hit esterno (su un layer con raggio maggiore)
e da uno interno (su un layer con raggio minore) situati su due diversi layer. Le
diverse combinazioni di layer e disk usate per cercare gli hit sono scelte in maniera
da massimizzare l’efficienza di generazione dei Seed. In dettaglio, la ricerca parte da
un hit sul layer piu esterno, quest’ultimo e usato assieme al vertice per definire una
zona per la ricerca di un hit in un layer intermedio, che costituira, con il primo hit,
il doppietto. Il doppietto cosı costruito non e pero sufficiente ad imporre un vincolo
sull’impulso della traccia. Per cui deve essere usata l’assunzione che la traccia passi
dal vertice ricostruito dell’evento o dal centro del fascio (beamspot).
I parametri del Seed sono inizialmente stimati al centro del beamspot, usando le
65
equazioni di un’elica che passa per i due hit che compongono il doppietto e per l’asse
del fascio. Le incertezze associate all’elica sono:
• 1 rad in φ e θ,
• 1 (Gev/c)−1 sull’inverso dell’impulso,
• l’incertezza associata alla posizione del vertice.
I parametri iniziali cosı stimati sono propagati alla superficie dell’hit piu interno
e aggiornati con l’informazione portata dalla misura dell’hit; infine i parametri ag-
giornati sono di nuovo propagati alla superficie dell’hit piu esterno e aggiornati allo
stesso modo con le informazioni dell’hit. In questa maniera ai parametri della traccia
e associata una matrice di errori che tiene conto dell’incertezza sulla posizione degli
hit, della grandezza della regione di seeding e dello scattering dovuto al materiale.
Seeding da tripletti
Per eseguire il seeding da tripletti vengono eseguite le stesse operazioni, con la dif-
ferenza di una ulteriore propagazione dei parametri della traccia sulla superficie del
terzo layer. In confronto con il metodo di seeding da doppietti quello da tripletti
presenta una maggiore affidabilita (cioe il numero di seed trovati ha piu probabilita
di appartenere ad una traccia dell’evento) ma il numero di seed ricostruiti risulta
minore.
3.3.2 Pattern Recognition
Come accennato sopra, la ricerca degli hit appartenenti alla traccia (Pattern Reco-
gnition) e basata su un algoritmo tipo “Kalman Filter” combinatoriale. L’algoritmo,
descritto in dettaglio in [41], partendo dal layer dove si trova il seed, propaga, in
maniera iterativa, i parametri della traccia, stimati con le informazioni del layer
precedente, a quello successivo, migliorando cosı la stima dei parametri man mano
che aggiunge l’informazione proveniente dalla misura dell’hit su ogni layer. Su ogni
66
layer la stima dei parametri delle tracce e conosciuta con precisione maggiore che sul
layer precedente, fino all’ultimo hit, dove i parametri sono stimati con la massima
precisione possibile.
Il primo passo di questo algoritmo consiste nel propagare la traiettoria su tutti
i layer compatibili con le informazioni provenienti dai seed, tenendo conto anche
degli effetti di multiple scattering e perdita di energia dovuti al materiale passivo
che circonda i moduli.
Dal momento che, sul layer dove e stata propagata la traiettoria, possono essere
trovati diversi hit, viene creato un candidato Traiettoria per ogni hit compatibile
con il risultato della propagazione. Inoltre un ulteriore candidato Traiettoria viene
creato, per tenere conto della possibilita che la traiettoria non abbia lasciato nessun
hit su quel particolare layer (a causa di inefficienze varie dei moduli del rivelatore)
e ad esso viene aggiunto un hit “fittizio” (indicato come hit invalido).
Ogni traiettoria e poi aggiornata con l’informazione proveniente dall’hit corri-
spondente, secondo il formalismo del “Kalman Filter”.
Tutti i candidati Traiettoria creati in questa maniera vengono poi propagati sul
layer successivo, in parallelo per non influenzare il risultato della propagazione della
altre tracce. All’interno del layer, gli hit compatibili con la traccia possono anche
essere su moduli diversi. Inoltre, per massimizzare la superficie coperta dai rivelatori,
i moduli di cui e composto il tracciatore presentano una sovrapposizione (overlap).
Una traccia puo quindi attraversare il primo modulo e poi rilasciare energia anche nel
secondo, se quest’ultimo ha un overlap col primo. Questa situazione si presenta in
genere per tracce con basso pT ed e uno dei punti critici degli algoritmi di tracciatura
standard.
Questa propagazione viene ripetuta fino al raggiungimento del layer piu esterno,
oppure fino a che non e soddisfatta una condizione di stop. Infatti, per evitare
una crescita esponenziale del numero di candidate tracce, ad ogni layer e imposto
un taglio sul numero totale di queste ultime. Inoltre le traiettorie con troppi hit
invalidi vengono scartate.
67
Questo algoritmo e configurabile attraverso vari parametri. I principali sono (tra
parentesi e mostrato il valore di default):
• il numero massimo di tracce candidate (5)
• il massimo χ2 per gli hit compatibili con lo stato propagato della traiettoria
(30)
• il numero massimo di hit invalidi per una traccia (1)
• il numero massimo di hit invalidi consecutivi (1)
• il minimo impulso trasverso (0.3)
• il minimo numero di hit per traccia (3)
3.3.3 Fit e Smooth delle tracce
Per ogni traiettoria, dopo l’ultimo passo della Pattern Recognition, abbiamo una
collezione di hit e una stima dei parametri della traccia. Tuttavia la migliore stima
di questi parametri si ha solo sull’ultimo layer, mentre il valore dei parametri al
vertice e molto meno preciso ed e influenzato dai vincoli imposti nella fase di ricerca
dei seed. Quindi si sceglie di ripetere il fit della traiettoria, combinando un “Kalman
Filter” standard e uno “smoother”.
Il “Kalman Filter” viene inizializzato in corrispondenza dell’hit piu interno, con
la stessa stima dei parametri ottenuta durante la fase di seeding. La matrice di
covarianza associata viene pero scalata di un fattore molto grande (tipicamente 100)
per evitare di introdurre un bias. Il fit dunque procede in maniera iterativa, per ogni
hit valido la stima della posizione e dell’errore viene valutata nuovamente, usando
il valore attuale dei parametri della traccia. L’informazione sull’angolo di incidenza
della traccia consente di aumentare la precisione della misura, specialmente nei
moduli dei pixel [42] e nei moduli a doppia faccia. Nei moduli a microstrisce a singola
faccia l’informzione viene usata solo per il calcolo dell’errore. L’aggiornamento dei
68
parametri della traccia e la loro propagazione al layer successivo avviene esattamente
come nella Pattern Recognition e la sequenza viene ripetuta fino all’ultimo hit.
Questo primo fit e poi accompagnato da un cosiddetto smooth: un secondo “Kal-
man Filter” viene inizializzato con i parametri provenienti dal primo, eccetto che
per la matrice di covarianza del primo layer, questa volta quello piu esterno (scalata
al solito per un fattore molto grande). Partendo dall’hit piu esterno, la procedura
seguita precedentemente viene ripetuta, per ogni layer l’informazione sui parametri
propagata dai layer precedenti viene combinata con quella predetta, ricavata dal
primo “filter” (escludendo l’informazione dell’hit attuale) in modo tale che lo sta-
to aggiornato su ogni layer contenga la massima informazione possibile, ottenuta
usando tutti gli hit della traccia (vedi figura 3.5).
In questo modo si ottiene una stima ottimale dei parametri della traccia, soprat-
tutto sulle superfici relative al primo e all’ultimo hit.
Figura 3.5: In figura e mostrato il procedimento di fit (a sinistra) e di smooth (al
centro). La larghezza delle frecce corrisponde alla grandezza dell’errore associato ai
parametri su un certo layer. A destra la combinazione di fit e smooth.
69
3.4 Performance della tracciatura standard
In questo paragrafo descrivero brevemente la procedura attualmente usata per la
ricostruzione delle tracce, il cosiddetto Iterative Tracking; mostrero poi alcuni grafici
per riassumere le performance di questo algoritmo.
3.4.1 L’Iterative Tracking
L’Iterative Tracking (per una descrizione dettagliata vedi [43]) consiste essenzial-
mente nel ripetere piu volte la ricostruzione con l’algoritmo CKF, ma ogni volta con
un numero minore di hit. Ad ogni iterazione sono eseguiti i seguenti passi:
1. Viene selezionato un sottoinsieme di hit ricostruiti, rimuovendo quelli asso-
ciati alle tracce con un migliore χ2 ottenuto dal fit precedente (nella prima
ricostruzione vengono usati tutti gli hit ricostruiti).
2. La ricostruzione delle tracce viene fatta sul sottoinsieme di hit selezionati al
passo precedente.
3. La collezione di tracce viene filtrata: viene verificata la compatibilita della
traccia con il vertice ricostruito, applicando dei tagli sul parametro di impatto
e sul χ2 della traccia. Le tracce vengono classificate in base a un parametro
di qualita.
4. Vengono salvate solo le tracce che passano i tagli al punto 3.
La strategia di ricostruzione puo essere ottimizzata variando i parametri usati
per il filtraggio delle tracce [44].
3.4.2 L’efficienza della tracciatura standard
Per valutare la bonta degli algoritmi di tracciatura, in CMSSW e implementato un
Track Associator: questo oggetto, come dice il nome, si occupa di associare le tracce
70
simulate (da un generatore MonteCarlo) a quelle ricostruite (da un algoritmo di ri-
costruzione qualsiasi). Esistono essenzialmente due metodi di associazione: uno che
confronta i parametri delle tracce simulate e ricostruite (TrackAssociatorByChi2)
e uno che confronta la provenienza degli hit associati alla traccia stessa (TrackAs-
sociatorByHits). Per confrontare in maniera opportuna tracce ricostruite e tracce
simulate esiste un oggetto chiamato TrackingParticle, che rappresenta appunto la
traccia simulata.
I TrackAssociator contengono 2 metodi principali:
• associateRecoToSim: associa le tracce ricostruite alle TrackingParticle.
• associateSimToReco: associa le TrackingParticle alla tracce ricostruite.
Ognuno di questi due metodi ritorna una mappa, dove ad ogni traccia ricostrui-
ta (TrackingParticle) viene associato un vettore di TrackingParticle (traccia rico-
struita), ordinato secondo la qualita dell’associazione (per una trattazione completa
dell’argomento si rimanda a [45] e citazioni ivi contenute).
A seconda del metodo di associazione usato abbiamo due diverse definizioni della
efficienza e del fake rate di un algoritmo di tracciatura:
• TrackAssociatorByHits: viene consultata la mappa di associazione tra
TrackingParticle e vettore di tracce ricostruite. Se esiste almeno una trac-
cia ricostruita per la quale la percentuale di hit in comune con la Tracking
Particle e maggiore del 50% la traccia viene considerata valida ai fini del cal-
colo dell’efficienza. Nel caso in cui la traccia simulata abbia tre hit si richiede
che siano tutti in comune con la traccia ricostruita.
Viene poi consultata la mappa di associazione tra traccia ricostruita e vettore
di TrackingParticle. Se esiste almeno una traccia simulata che ha una percen-
tuale di hit in comune con la traccia ricostruita maggiore del 75 % allora la
traccia ricostruita e considerata buona, altrimenti e fake, cioe falsa.
71
• TrackAssociatorByChi2: viene consultata la mappa di associazione tra
TrackingParticle e vettore di tracce ricostruite. Una traccia ricostruita e asso-
ciata a una traccia simulata se il χ2 tra i parametri delle due tracce, calcolato
al punto di massimo avvicinamento alla linea del fascio, e sotto un certa soglia.
Viene poi consultata la mappa di associazione tra traccia ricostruita e vettore
di TrackingParticle. Se esiste almeno una traccia simulata che ha un χ2 sotto
la soglia fissata la traccia ricostruita e considerata buona, altrimenti e fake,
cioe falsa.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.95
0.96
0.97
0.98
0.99
1
1.01
1.02
ηefficiency vs
Figura 3.6: Nella figura e mostrata l’efficienza di ricostruzione per tracce lasciate da
muoni singoli con impulso trasverso 100 GeV/c, in funzione della pseudorapidita η:
l’efficienza e ovunque molto vicina al 100%. Il fake rate per questi eventi e zero in
tutto il rabge di η.
In generale l’associazione by chi2, che confronta i parametri delle tracce simulate
e delle tracce ricostruite, restituisce meno tracce ricostruite rispetto all’associatore
by hits. Questo e un comportamento aspettato, dal momento che l’associazione
by chi2 impone un taglio di qualita alla traccia ricostruita, mentre l’associatore by
hits confronta semplicemente la frazione di hit in comune tra la traccia simulata e
72
quella ricostruita. Per tracce in cui la frazione di hit ricostruiti e 1 idealmente i due
associatori dovrebbero dare lo stesso risultato.
Figura 3.7: Nella figura a sinistra e mostrata l’efficienza di ricostruzione per tracce
lasciate da pioni singoli con pT di 100 GeV/c, in funzione della pseudorapidita
η: l’efficienza e sopra il 90% per |η| < 1, ha un minimo, attorno all’80% nella
regione corrispondente a |η| = 1.5, in corrispondenza della transizione tra regione
Barrel e EndCap. Nella figura a destra e mostrato il “fake rate” per le stesse tracce,
in funzione della pseudorapidita η: notare l’aumento, fino al 20%, di quest’ultimo
nella regione corrispondente a η = 1.5, la stessa per la quale si ha una diminuzione
di efficienza. Il motivo e che i pioni interagiscono con il materiale non sensibile del
tracciatore, dando luogo a tracce secondarie che non vengono ricostruite (soprattutto
nella regione di transizione tra Barrel e EndCap, dove si concentra la maggior parte
del materiale). I due colori si riferiscono a due diverse versioni del software di
ricostruzione.
Un buon algoritmo di tracciatura deve quindi presentare una efficienza piu alta
possibile e un fake rate piu basso possibile. In realta queste due quantita dipendono
molto dall’ambiente in cui la tracciatura viene fatta, cioe dal tipo di eventi presi in
considerazione. Nelle figure 3.6, 3.7 e 3.8 sono mostrate queste due grandezze per
73
diversi tipi di eventi, usando l’associatore byhits: simulazione di muoni singoli di
pt = 100 GeV/c (figura 3.6), pioni singoli con pt = 100 GeV/c (figura 3.7), simula-
zione della produzione e decadimento di una coppia di quark tt in una collisione pp
(figura 3.8). In tutti questi casi l’effetto del pile up non e stato simulato.
Figura 3.8: Nella figura a sinistra e mostrata l’efficienza di ricostruzione in funzione
di η, per tracce lasciate dal decadimento di una coppia di quark tt: l’efficienza resta
sopra il 90% per |η| < 1 ed ha un minimo, attorno all’85% nella regione corrispon-
dente a |η| = 1.5, alla transizione tra regione Barrel e EndCap. Nella figura a destra
e mostrato il “fake rate”, in funzione di η: nella regione corrispondente a η = 1.5
(la stessa in cui si ha un minimo di efficienza) si ha un picco di fake rate fino al
10%. I due colori si riferiscono a due diverse versioni del software di ricostruzione.
In figura 3.9 e invece mostrata l’efficienza e il fake rate per eventi tt, nel caso di
pile up, nello scenario di bassa luminosita. Come si puo notare in questo caso il fake
rate aumenta sensibilmente a causa della presenza di molti hit nel tracciatore.
In figura 3.10 e mostrato un evento di QCD con 3000 < pT < 3500 GeV/c.
Anche se nel modello standard la sezione d’urto di questo processo e molto piccola
processi di fisica oltre il modello standard prevedono la produzione di eventi con jet
74
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.5
0.6
0.7
0.8
0.9
1
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.50
0.1
0.2
0.3
0.4
0.5
0.6
0.7
ηfake rate vs
Figura 3.9: Nella figura e mostrata l’efficienza di ricostruzione (a sinistra) e il fake
rate (a destra) in funzione di η, per tracce lasciate dal decadimento di una coppia
di quark tt. Il colore blu si riferisce a eventi in cui viene simulato anche il pile up,
mentre il rosso si riferisce ad eventi in cui questo fenomeno non e simulato.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.5
0.6
0.7
0.8
0.9
1
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.50
0.1
0.2
0.3
0.4
0.5
0.6
0.7
ηfake rate vs
Figura 3.10: Nella figura e mostrata l’efficienza di ricostruzione (a sinistra) e il fake
rate (a destra) in funzione di η, per tracce lasciate da eventi di QCD ad alto impulso
trasverso. L’efficienza no e mai sopra il 90% e scende fino quasi al 50% per |η| < 1.
In questa stessa regione il fake rate arriva oltre il 70%.
75
di alto impulso trasverso. Anche in questo caso e evidente il limite della tracciatura
standard. E’ quindi essenziale studiare algoritmi di tracciatura in ambienti densi.
76
Capitolo 4
La tracciatura in ambienti “densi”
Come abbiamo accennato nel capitolo precedente, l’ambiente in cui operera il trac-
ciatore di CMS rendera particolarmente difficile la ricostruzione delle tracce lasciate
dalle particelle cariche nel rivelatore. La principale causa e l’alta luminosita a cui
operera LHC, per cui ad ogni incrocio dei fasci (bunch crossing) verranno prodotte
un gran numero di particelle; inoltre saranno presenti forti effetti di pile up, che con-
tribuiranno a rendere l’ambiente ancora piu denso di hit e di tracce da ricostruire.
La fenomenologia delle collisioni protone-protone, come gia accennato nel paragra-
fo 1.3.5, e tale che, in molti degli eventi interessanti per la fisica, si ha anche una
produzione di jet adronici, che danno luogo a tracce cariche molto vicine. Infine
l’interazione delle particelle molto energetiche col materiale (attivo e passivo) causa
la produzione dei cosiddetti delta ray, elettroni di alta energia prodotti durante il
passaggio della particella nella materia, che si propagano nel volume del tracciato-
re rilasciando energia all’interno dei moduli al silicio. Questi causano la comparsa
di hit, a livello della ricostruzione, che non sono associati direttamente a nessuna
particella e che quindi possono dare luogo a errori nella ricostruzione delle tracce.
Il Kalman Filter non e progettato per proteggersi contro l’assegnazione di hit non
appartenenti alla traccia, essendo un algoritmo caratterizzato da una corrispondenza
forte tra hit e traccia, cioe in cui l’hit e assegnato oppure no alla traccia. Esistono
invece algoritmi caratterizzati da una corrispondenza debole tra hit e traccia, in cui
77
ogni hit e assegnato alla traccia con un certo peso: in questo modo l’assegnazione
non e piu binaria, ma e espressa attraverso una probabilita di assegnazione, cioe un
peso, che puo prendere tutti i valori compresi tra 0 e 1. I due algoritmi principali
che si basano su questa assunzione sono il Deterministic Annealing Filter (DAF)
e il Multi Track Filter (MTF). In questo capitolo trattero in dettaglio entrambi:
descrivero le ipotesi matematiche e gli algoritmi DAF e MTF e l’implementazione
di quest’ultimo in CMSSW, da me effettuata.
4.1 Il Deterministic Annealing Filter
Il DAF [46] e un algoritmo di ricostruzione in cui diversi hit competono tra di loro
per l’appartenenza a una stessa traccia, con un certa probabilita di appartenere alla
traccia, che puo assumere un valore qualsiasi compreso tra 0 e 1. Il DAF inoltre e un
algoritmo iterativo nel senso che il fit della traccia viene ripetuto diverse volte per
tutte le tracce dell’evento. Questo ciclo di fit successivi e detto ciclo di annealing.
Non si puo infatti escludere che il valore dei pesi alla fine delle iterazioni non
dipenda dai valori assegnati inizialmente. Per questo viene introdotto l’annealing,
che consiste nel moltiplicare la matrice di covarianza associata ad ogni hit della
traccia per un certo fattore β, detto appunto fattore di annealing, in modo da
aumentare artificialmente l’errore associato alla posizione della traccia. Un tipico
schema di annealing usato e β = 80, 9, 4, 1, 1, 1. Nel seguito mostreremo i vari
passi attraverso cui passa il DAF, dal calcolo dei pesi al fit finale.
Il primo passo del DAF consiste nel calcolare i pesi da assegnare ad ogni hit. Dopo
un primo fit (che puo essere eseguito da un normale Kalman Filter) ad ognuno degli
hit nelle vicinanze viene assegnato un peso, che dipende dai residui degli hit stessi
rispetto alla traccia (per ogni superficie del rivelatore).
Dopodiche il DAF compie il cosiddetto ciclo di annealing. Il fit viene cioe ripetuto
diverse volte, ogni volta con un valore minore del “fattore di annealing”.
78
Nel Kalman Filter il vettore di stato della traccia viene aggioranto con l’infor-
mazione di una sola misura:
xk,upd = xk,pred + Kk (mk −Hkxk,pred) . (4.1)
La differenza del DAF rispetto al normale Kalman Filter sta nel diverso modo in
cui viene aggiornato il vettore di stato della traccia x su una superficie del rivelatore.
Infatti nel caso del DAF abbiamo n hit in competizione m1, ...,mn:
xupd = xpred + Kn∑
i=1
pi (mi −Hxpred) , (4.2)
dove pi e il peso dell’hit i-esimo.
In questo caso la matrice di guadagno K e:
K =(C−1
pred + pHTV−1H)−1
HTV−1, (4.3)
dove con p abbiamo indicato la somma di tutti i pi e V e dato da:
Va = βaV, (4.4)
dove βa e il fattore di annealing al ciclo a-esimo. Infine la matrice di covarianza
aggiornata, che nel caso del Kalman Filter standard era data da:
Cupd = (I−KH)Cpred, (4.5)
nel caso del DAF diventa:
Cupd =(C−1
pred + pHTV−1H)−1
. (4.6)
Le probabilita di assegnazione, o pesi, sono calcolate supponendo una distribu-
zione di probabilita gaussiana degli hit attorno allo stato della traccia. Facendo uso
delle misure mi e prendendo come stato della traccia su una certa superficie quello
smoothed, cioe quello ottenuto combinando l’informazione del fit in avanti con quella
79
del fit all’indietro (vedi capitolo 3), posso esprimere le probabilita di assegnazione
cosı:
φi =1
(2π)n/2√
detVi
exp[1
2(mi −Hxsmoo)V
−1i (mi −Hxsmoo)
T]. (4.7)
Qui n e la dimensione del vettore delle misure m. Infine i pesi vengono norma-
lizzati:
pi =φi∑n
j=1 φj +∑n
j=1 φj,cut
. (4.8)
Dove φj,cut e un valore di taglio, che forza la probabilita di assegnazione ad essere
vicina a zero se la probabilita dell’hit scende al di sotto di un certo valore di soglia.
Ad esempio, se vogliamo che un hit bidimensionale con probabilita minore di 0.001
venga escluso il valore di φj,cut sara:
φj,cut =1
(2π)√
detVi
exp
[1
2
13.8
βa
]. (4.9)
Dove 13.8 e il valore di χ2 corrispondente a una probabilita minore di 0.001. Il
valore di φcut serve a fare si che, se in una superficie c’e un solo hit in competizione,
questo non conti troppo nel fit se e molto lontano dalla posizione aggiornata della
traccia. L’hit puo comunque “ricomparire” al ciclo di annealing successivo.
Il χ2 della traccia sulla superficie j con un numero i di hit in competizione e dato
dalla somma dei χ2 individuali:
χ2j =
∑
i
χ2i,j, (4.10)
dove χ2i,j e dato da:
χ2i,j = pi(mi −Hxj,pred)
T (VI + HCj,predHT )−1(mi −Hxj,pred). (4.11)
Il χ2 totale della traccia si ottiene sommando su tutti i χ2j :
80
χ2 =∑
j
χ2j . (4.12)
Per calcolare il numero di gradi di liberta ndf , il numero di misure nmdeve essere
moltiplicato per la probabilita di assegnazione. Per una certa superficie j con gli hit
in competizione di dimensione dimj avro che il numero di misure e:
nm,j =∑
i
pi,j dim j = pj dim j. (4.13)
Il numero totale di gradi di liberta e quindi:
ndf =
∑
j
nm,j − np
, (4.14)
dove np e il numero di parametri da stimare, 5 nel caso di una particella in un
campo magnetico. E’ da notare che il numero di misure nm non e intero, quindi
anche il numero totale di gradi di liberta non e intero.
Il MultiRecHit
Per semplificare i calcoli da eseguire e rendere piu facile l’implementazione dell’al-
goritmo possiamo introdurre il concetto di MultiRecHit. Notiamo che le formule per
l’aggiornamento del vettore di stato della traccia, nel caso del DAF, possono essere
riscritte nel seguente modo:
xupd = xpred + K′(m
′ −Hxpred
). (4.15)
Dove m′
e una misura virtuale definita come la media pesata di tutte le misure
mi in competizione tra di loro:
m′
=
(∑
i
piGi
)−1∑
i
piGimi, (4.16)
con Gi = V−1i . La matrice di covarianza V
′
associata ad m′
e:
81
V′
=
(∑
i
piGi
)−1
. (4.17)
In questo modo la matrice K e la matrice di covarianza aggiornata possono essere
scritte nel modo consueto:
K′
=(C−1
pred + HTV′−1H
)−1HTV
′−1, (4.18)
Cupd =(C−1
pred + pHTV′−1H
). (4.19)
In questa maniera possono essere usate le stesse formule del Kalman Filter stan-
dard (descritte nel capitolo 3) per l’aggiornamento del vettore di stato della traccia,
a patto di sostituire la posizione reale degli hit con una posizione virtuale (il Multi
Rec Hit appunto). La matrice di covarianza puo anch’essa essere sostituita con una
matrice virtuale. Entrambe vengono calcolate a partire dalle posizioni degli hit in
competizione tra di loro e dai rispettivi pesi, come mostrato nelle equazioni 4.16 e
4.17 . Nella figura 4.1 viene mostrato il principio di funzionamento del DAF. La
freccia grigia tratteggiata rappresenta lo stato della traccia simulata sulla superficie
considerata, mentre la freccia blu rappresenta lo stato della traccia ricostruita: alla
prima iterazione la traccia ricostruita e molto lontana da quella simulata e gli hit
vengono raccolti in una regione molto ampia attorno all’hit originario. Il fattore
di annealing alla prima iterazione e infatti molto grande. Nelle iterazioni successi-
ve lo stato della traccia ricostruita si avvicina sempre di piu a quello della traccia
simulata.
Alla luce di quanto abbiamo detto fino ad ora e chiaro che il DAF puo essere molto
utile in quelle situazioni in cui abbiamo un alto numero di hit, che possono essere
dovuti al passaggio di altre particelle oppure al rumore dovuto all’elettronica di
lettura o ancora al pile up, che e un fenomeno non trascurabile a CMS. In questi casi
infatti si ha un alto numero di hit all’interno del tracciatore, che possono peggiorare
la stima dei parametri della traccia. Per proteggersi quindi da errate assegnazioni
di hit alle tracce l’idea del DAF di assegnare un peso ad ogni hit compatibile con la
82
Figura 4.1: In figura viene esemplificato il funzionamento del DAF. Durante la prima
iterazione la traccia ricostruita (rappresentata come un cono blu) e molto lontana
dalla traccia simulata. Agli hit in competizione viene tuttavia assegnato un peso
alto (diverse sfumature di verde) a causa dell’alto fattore di annealing. La posizione
del MultiRecHit (mostrata in rosso) e una media pesata dele posizioni degli hit in
competizione. Alla fine del ciclo di annealing la traccia ricostruita e molto piu vicina
a quella simulata e la posizione del MultiRecHit e molto piu vicina a quella dell’hit
simulato.
83
traccia considerata puo portare a un miglioramento della risoluzione dei parametri
della traccia.
4.2 La ricostruzione con il DAF
Il DAF e implementato nel software di ricostruzione di CMS ma non e mai stato
testato sistematicamente. Io mi sono occupato di mettere a punto e ottimizzare il
processo di ricostruzione, al fine di migliorarne le prestazioni e l’efficienza.
il punto di partenza del DAF sono le tracce ottenute dalla ricostruzione standard,
decsritta nel paragrafo 3.3. Il passo successivo e quello di cercare intorno a ogni
traccia ricostruita gli hit da mettere in competizione.
La ricerca degli hit da mettere in competizione si limita a una certa regione dello
spazio. Questa regione e definita da un taglio sul χ2, definito da:
χ2 = (mi −Hxsmoo)V−1i (mi −Hxsmoo)
T . (4.20)
Questo valore puo essere modificato dall’utente, per raccogliere un numero mag-
giore di hit attorno alla posizione aggiornata della traccia su quel layer.
L’area in cui il DAF ricerca gli hit da mettere in competizione puo essere scelta
piu ampia rispetto a quella in cui la tracciatura standard ricerca gli hit durante la
propagazione della traiettoria da un layer al successivo (χ2 = 30). Il DAF inoltre
mette in competizione tutti gli hit sullo stesso layer, tranne quelli sugli overlap, dal
momento che, come abbiamo visto, non e escluso che una traccia possa passare per
entrambi i moduli. In questo caso infatti gli hit non sono mutualmente esclusivi per
l’appartenenza alla traccia e quindi non devono essere messi in competizione. Gli
hit sugli overlap vanno quindi a formare due MultiRecHit diversi.
84
4.3 Il Multi Track Filter
Il Multi Track Filter (nel seguito abbreviato in MTF) e molto simile al DAF: anche
esso si basa sul principio dell’assegnazione debole hit-traccia e su un meccanismo
di fit iterativo. Tuttavia, mentre il DAF prevede che tanti hit vengano messi in
competizione per ricostruire una singola traccia, il MTF introduce una competizione
tra gli hit e piu tracce candidate allo stesso tempo. Per questa ragione le tracce
vengono fittate contemporaneamente, mentre nel DAF il fit avviene una traccia per
volta.
Il primo passo del MTF consiste nella scelta di una collezione di candidate tracce
e una collezione di hit che possono essere associati ad almeno una delle candidate
tracce. I parametri iniziali delle tracce da mettere in competizione possono essere
estratti da un primo fit con un semplice Kalman Filter.
Il secondo passo consiste nel calcolare i pesi degli hit selezionati rispetto alle
tracce. Dopodiche inizia il ciclo di anneling, in cui i parametri delle tracce vengono
stimati tenendo conto dei pesi degli hit calcolati al passo precedente. Un hit con
un peso molto basso rispetto a una certa traccia contribuisce poco alla stima dei
parametri della traccia. I risultati del fit vengono poi usati per ricalcolare il valore
dei pesi degli hit rispetto a tutte le tracce e cosı via, fino alla convergenza delle
probabilita di assegnazione.
Prendiamo ad esempio una certa superficie del rivelatore, supponiamo che ci
siano m candidate tracce che attraversano questa superficie e n hit compatibili con
almeno una candidata traccia. Il vettore di stato della traccia i sia xi, mentre i valori
osservati dell’hit j siano descritti dal vettore mj. Le probabilita di assegnazione pi,j
di un hit rispetto ad una traccia (su una superficie del rivelatore) possono essere
organizzate in una matrice con una riga per ogni traccia e una colonna per ogni hit.
hitj →statii ↓ pij
85
Il calcolo delle probabilita di assegnazione si basa sulla densita di probabilita
normale φij, analoga a quella usata per il DAF (eq. (4.7)):
φij = φ(mj;Hxi,Vj).
Dove H e la matrice che proietta lo stato della traccia x sulla misura m, descritta
dall’equazione:
m = Hx + ǫ,
con ǫ l’errore associato alla misura m, che si assume avere media nulla e matrice
di covarianza V. Come nel DAF, la matrice di covarianza V dipende dal ciclo
di annealing, essa e maggiore della V nominale all’inizio del ciclo di annealing e
decresce dopo ogni passo. La procedura per il calcolo dei pesi delle probabilita di
assegnazione si basa sulla competizione tra gli hit e le tracce contemporaneamente.
La probabilita di assegnazione pij viene calcolata dividendo le φij per la somma degli
elementi sulla stessa riga e sulla stessa colonna piu una costante (normalizzazione
per righe e per colonne):
pij =φij∑
k φik +∑
l φlj − φij + c. (4.21)
Dove la costante c, uguale a quella del DAF definita in 4.9, definisce un taglio
oltre il quale la probabilita di assegnazione scende rapidamente a zero. Tutte le
misure mj su una stessa riga vengono combinate, attraverso una somma pesata, a
formare una singola misura virtuale, il MultiRecHit, che abbiamo visto nel paragrafo
4.1.
L’inizializzazione dei pesi da assegnare a ciascun hit per il Multi Track Filter e
un compito difficile, dal momento che la qualita del fit finale dipende anche dalla
scelta dei pesi iniziali. Una maniera di ottenere buoni valori di partenza e quella di
selezionare le tracce provenienti da un Kalman Filter iniziale che sono molto vicine
e mettere in competizione gli hit di quelle tracce, usando come parametri iniziali
86
quelli provenienti dal Kalman Filter. Questo metodo puo poi essere confrontato con
l’inizializzazione fatta prendendo come parametri iniziali quelli delle tracce simulate.
Abbiamo visto prima che il DAF puo rivelarsi un algoritmo potente nel caso di
ambienti rumorosi, in quanto permette di risolvere il problema di un errata asse-
gnazione di un hit alla traccia. Nelle situazioni in cui le tracce sono molto vicine
l’una all’altra (come per esempio nei jet molto collimati provenienti dai decadimenti
dei τ) diversi hit possono essere associati a piu tracce. Inoltre puo accadere che gli
hit di due tracce siano sovrapposti, causando un condivisione dell’hit tra due tracce
differenti. In questi casi l’approccio del MTF puo essere piu adatto, in quanto la
competizione e contemporanea tra tracce e hit: non solo un hit puo competere per
appartenere a piu tracce, ma anche le tracce possono competere tra di loro per la
“paternita” dello stesso hit.
Nella figura 4.2 viene schematizzato il funzionamento del MTF: dopo il primo KF
standard, a causa dell’alta densita di tracce nell’evento, alle tre tracce che passano
per lo stesso modulo vengono assegnati hit sbagliati. In verde vengono mostrati i
numeri relativi alle tracce vere, indicate con una linea tratteggiata grigia. In rosso
i numeri relativi ai punti di passaggio delle tracce ricostruite. Prima del ciclo di
annealing vengono costruiti i MultiRecHit e ad ognuno di questi 3 hit viene assegnato
un peso, relativamente alla traccia di cui si sta facendo il fit. Man mano che il ciclo
prosegue vediamo che la stima dei parametri delle tracce segue sempre piu da vicino
la posizione degli hit, fino all’ultimo passo, in cui gli hit vengono riassegnati alla
tracce a cui realmante appartengono.
4.4 L’implementazione del Multi Track Filter in
CMSSW
Nel mio lavoro di tesi ho studiato e implementato il Multi Track Filter all’interno
del software di CMS. Nel seguito descrivero il funzionamento dell’algoritmo, che
87
Figura 4.2: In figura viene esemplificato il funzionamento del MTF. In verde sono
mostrati gli hit veri, in rosso il punto di passaggio ricostruito della traccia. Tutti
gli hit vengono messi in competizione con tutte le tracce e dopo l’ultima iterazione
questi vengono riassegnati correttamente alle tracce ricostruite.
88
differisce dal DAF per la parte che riguarda il calcolo dei pesi e la scelta delle
traiettorie e degli hit da mettere in competizione.
La classe che si occupa di rifare il fit delle traiettorie con il metodo del Multi Track
Filter e il MTFTrackProducer. L’inizializzazione dei parametri con cui individuare
le tracce da mettere in competizione e calcolare i pesi relativi degli hit viene fatta
a partire dalle tracce provenienti dalla ricostruzione standard. Tutte le misure di
tutte le tracce vengono analizzate, traccia per traccia, dal metodo collectHits, che
si occupa di costruire i MultiRecHit (MRH nel seguito).
A questo punto ad ogni traccia e associato un vettore di misure, costituite da
MRH. Il passo successivo consiste nel fare un fit con un Kalman Filter standard, con
fattore di annealing 1, per costruire un insieme di traiettorie formate da MRH invece
che da hit normali. Dopo questo fit comincia il ciclo di annealing: dapprima vengono
aggiornati tutti i pesi degli hit che compongono tutti i MRH. Questa procedura
viene effettuata per tutte le tracce nell’evento contemporaneamente, in modo che
al fit successivo i pesi degli hit delle tracce siano stati calcolati con lo stesso fattore
di annealing. Infatti questo, come abbiamo visto in precedenza, va a moltiplicare
la matrice di covarianza associata al singolo hit ed e importante che tutti gli hit di
tutte le tracce abbiano associato un errore aumentato dello stesso fattore, perche
questo influenza il peso assegnato agli hit che compongono un certo MRH, nella fase
di aggiornamento dei pesi.
Dopodiche inizia il fit vero e proprio: vengono prese tutte le tracce provenienti
dal ciclo di annealing precedente e viene fatto il fit, una traccia alla volta. Questa
procedura di fit utilizza lo stesso metodo del Kalman Filter standard, prendendo al
posto dell’hit singolo la misura virtuale costituita dal MRH e l’errore associato come
in (4.17). Le tracce uscenti da questo fit, che serviranno per calcolare i pesi degli
hit al ciclo di annealing successivo, vengono organizzate in un vettore e il ciclo di
annealing prosegue. Nella figura 4.3 e schematizzata la sequenza di funzionamento
del MTF, dal primo KF standard al ciclo di annealing, al fit finale delle tracce.
In seguito descrivo in dettaglio alcune delle classi e dei metodi principali a cui
89
ho fatto riferimento in precedenza, per illustrarne il funzionamento nei particolari
piu interessanti.
Il metodo collectHits
E’ il metodo che si occupa di costruire pr ogni traccia i MRH, a partire da tutti gli
hit che sono stati associati a delle tracce dal Kalman Filter iniziale. Questo metodo
fa uso a sua volta del metodo recHits, che si occupa di ricercare gli hit da mettere in
competizione ed e usato anche nell’aggiornamento dei pesi. Il metodo collectHits
restituisce un vettore di MRH, sui quali fare il fit con un KF standard.
Il metodo updateHits
Questo metodo si occupa di aggiornare i pesi dei MRH di cui e composta una traccia.
In ingresso riceve una mappa in cui vengono immagazzinate le informazioni relative
a tutte le misure di tutte le tracce ricostruite dal KF iniziale, insieme a un indice che
rappresenta la traccia di cui aggiornare i MRH. Questa operazione viene fatta in due
passi: viene creato un oggetto chiamato MultiTrajectoryMeasurement (MTM),
che consiste in una collezione di hit e di stati delle tracce sulla stessa superficie,
detti TSOS1: gli hit rappresentano tutte le misure compatibili con i parametri della
traccia di cui si sta facendo il fit, le TSOS rappresentano i parametri delle traiettorie
associate a quegli hit. Dopodiche viene effettivamente creato un MRH. Di questo si
occupa il metodo buildMultiRecHit, che calcola i pesi degli hit che compongono il
MRH.
Il metodo recHits
Questo metodo, come accennato prima, e quello che si occupa di ricercare gli hit
da mettere in competizione. Per fare cio scorre tutti gli hit di tutte le traiettorie
ottenute dal primo KF e li raggruppa se provengono dallo stesso modulo. Avremo
1Senza entrare nei dettagli del codice per TSOS (Trajectory State On Surface) intendiamo un
oggetto da cui si possono estrarre i parametri della traiettoria su un preciso layer del tracciatore.
90
Figura 4.3: In figura uno schema completo del funzionamento del MTF. Con il ter-
mine MTM si intende il MultiTrajectoryMeasurement, un oggetto che contiene al
suo interno le informazioni sui parametri di tutte le tracce a cui potrebbe apparte-
nere un certo hit di un MultiRecHit. Mentre TSOS rappresenta i parametri della
traiettoria su un preciso layer del tracciatore.
91
cosı un gruppo di hit che sono vicini tra di loro, essendo tutti sullo stesso modulo.
Dopodiche questo metodo estrae dalle tracce da cui sono stati ottenuti gli hit le
informazioni sui parametri delle tracce stesse. Infine, ottenuta l’informazione sui
parametri delle traiettorie e sulla posizione degli hit, costruisce i MRH, sempre
attraverso il metodo buildMultiRecHit.
Il metodo buildMultiRecHit
E’ il metodo che si occupa di costruire i MRH. Questo metodo si occupa in particolare
di calcolare i pesi dei vari hit che compongono un determinato MRH. Per fare cio
prende in ingresso sia la TSOS relativa alla traccia di cui si sta facendo il fit, sia il
gruppo di hit che va a formare il MRH, sia le TSOS delle tracce a cui appartengono
gli hit. Dopodiche viene fatto il calcolo delle φij a cui si fa riferimento nell’equazione
(4.21), calcolando separatamente la somma sulle righe∑
k φik, quella sulle colonne∑
l φlj, e anche il taglio c. Questi parametri sono sufficienti a calcolare i pesi e a
costruire il MRH, con la relativa matrice di covarianza.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.95
0.96
0.97
0.98
0.99
1
1.01
1.02
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) t/p t
pδ(σ
-210
Figura 4.4: In figura l’efficienza (a sinistra) e la risoluzione di 1pT
(a destra) per
eventi con muoni singoli di pT = 10 GeV/c. Il MTF (in blu) non presenta differenze
apprezzabili rispetto alla tracciatura standard (in rosso).
92
In figura 4.4 sono invece mostrati i grafici relativi all’efficienza e al fake rate per
eventi con muoni singoli con impulso trasverso di 10 GeV/c. I risultati con il MTF
sono confrontabili con quelli ottenuti con la tracciatura standard. Questo e un buon
test di affidabilita dell’algoritmo, che dovra essere provato su eventi con alta densita
di particelle, dove dovrebbe mostrare tutte le sue potenzialita.
4.5 Sviluppi del Multi Track Filter
Il Multi Track Filter (MTF) e stato da me implementato ed ora fa parte del soft-
ware di ricostruzione di CMS. Questo algoritmo e una generalizzzione del DAF e
dovrebbe essere particolarmente adatto per identificare e determinare con precisione
i parametri delle tracce all’interno di jet densi.
In particolare alcuni studi hanno evidenziato [46] come questo algoritmo possa
essere utile per identificare il vertice di decadimento dei leptoni τ , che possono
decadere formando jet adronici. Il MTF sembra essere particolarmente adatto a
ricostruire e stimare con precisione i parametri delle tracce lasciate dal decadimento
3prong, cioe quello in cui il τ decade in tre adroni carichi.
Ho condotto per questo uno studio preliminare per valutare l’efficienza di rico-
struzione del MTF in eventi in cui viene simulato il decadimento di una Z in due τ ,
che a loro volta decadono in adroni (viene soppresso a livello di simulazione il deca-
dimento in leptoni). La figura 4.5 mostra il risultato di questo studio preliminare.
Si nota che il MTF si comporta peggio della tracciattura standard per la regione in
cui |η| < 1.5, mentre l’efficienza e il fake rate nella regione ad alti η sono simili a
quelli della tracciatura standard. Questo e dovuto a molteplici fattori. Innanzitutto
allo stato attuale dell’implementazione il MTF mette in competizione tutti gli hit
che sono sullo stesso modulo del tracciatore, mentre due tracce molto vicine posso-
no lasciare hit anche su moduli diversi ma adiacenti. Poi, nella scelta degli hit da
mettere in competizione non vengono considerati gli overlap, come invece fa il DAF.
Infine non viene applicata nessuna selezione preliminare alle tracce da mettere in
93
competizione, mentre la filosofia dell’algoritmo richiede che vengano selezionati e
messi in competizione gli hit di due tracce molto vicine nello spazio.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.50
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
ηfake rate vs
Figura 4.5: In figura viene mostrata l’efficienza di ricostruzione e il fake rate per
simulazioni del decadimento di due τ (prodotti dal decadimento di una Z) in adroni.
In rosso il MTF, in blu la tracciatura standard.
Per queste ragioni il MTF dovra essere sviluppato e migliorato al fine di intro-
durre la possibilita di ricercare gli hit da mettere in competizione anche su moduli
adiacenti e recuperare quelli sugli overlap. Inoltre la scelta delle tracce da mettere
in competizione dovra essere migliorata, introducendo una selezione iniziale basata
sulla vicinanza delle tracce. Infine dovra essere studiata la dipendenza del MTF
dalla scelta dei parametri iniziali delle tracce, dal momento che questo algoritmo
dovrebbe essere molto sensibile all’inizializzazione dei parametri delle tracce che
vengono messe in competizione.
94
Capitolo 5
Studio delle prestazioni del DAF
Durante il mio lavoro di tesi ho messo a punto la sequenza di ricostruzione del DAF
e ne ho studiato il funzionamento e le prestazioni. Come detto nel capitolo 4, il
DAF, pur essendo implementato in CMSSW, non e mai stato studiato sistematica-
mente. In particolare ho studiato come il DAF assegna i pesi degli hit all’interno
di un MultiRecHit in funzione dei vari parametri e per diverse tipologie di hit. Lo
studio dei MultiRecHit nel caso piu semplice del DAF permettera di capire meglio
il comportamento del MTF che e una sua generalizzazione.
In questo capitolo descrivero dapprima la sequenza di ricostruzione del DAF,
messa a punto da me. Dopodiche mostrero lo studio delle prestazioni del DAF
rispetto al metodo di tracciatura standard, negli eventi con alta densita di particelle
e quindi di tracce da ricostruire. In questi particolari eventi il comportamento degli
algoritmi standard di tracciatura e piu soggetto a una diminuzione del numero di
tracce ricostruite in maniera corretta e ad un aumento del numero di tracce fake.
Nel corso del mio studio ho cercato di determinare se esiste un miglioramento
nella ricostruzione delle tracce col DAF rispetto alla tracciatura standard, in cosa
consiste questo miglioramento (efficienza, stima dei parametri, fake rate ecc.) e in
quali situazioni si verifica. Infine ho cercato di interpretare i risultati ottenuti, in re-
lazione alle differenze nel processo di ricostruzione del DAF, rispetto alla tracciatura
standard.
95
Questo lavoro costituisce il punto di partenza per valutare l’algoritmo Multi-
TrackFilter (MTF), da me implementato. Il collaudo del MTF verra svolto dai vari
gruppi di CMS interessati alla ricostruzione dei jet, i quali useranno le metriche di
valutazione descritte in questo capitolo.
5.1 Prestazioni del DAF per diverse tipologie di
eventi
Prima di analizzare nel dettaglio le prestazioni del DAF per una specifica tipologia
di eventi, ho confrontato tre metriche primarie quali l’efficienza, il fake rate e la
precisione nella determinazione dei parametri per il DAF rispetto alla tracciatura
standard. Questo confronto e stato fatto per varie classi di eventi, in maniera da
identificare per quali tipologie la ricostruzione col DAF porta ai miglioramenti piu
marcati.
Eventi con due muoni singoli
In figura 5.1 viene mostrata l’efficienza di ricostruzione e il fake rate del DAF (in
rosso) rispetto alla tracciatura standard (in blu), per muoni singoli di pT = 1 GeV/c.
Per questo tipo di eventi la tracciatura standard ha un’efficienza quasi del 100% e
un fake rate vicino a 0. Quindi questo confronto permette di verificare che in questo
caso semplice, per eventi con pochi hit e quindi facili da ricostruire, il DAF riproduce
i risultati della tracciatura standard. Dalla figura si vede, come aspettato, che non
ci sono miglioramenti nella tracciatura col DAF rispetto alla tracciatura standard,
inoltre le efficienze di ricostruzione sono compatibili entro l’errore statistico. Nella
figura 5.1 e inoltre mostrata la risoluzione nella determinazione del pT della traccia
in funzione di η: anche in questo caso non si apprezzano differenze tra la tracciatura
standard e il DAF e le risoluzioni coincidono per tutto l’intervallo di η entro l’errore
statistico.
96
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.95
0.96
0.97
0.98
0.99
1
1.01
1.02
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) t/p t
pδ(σ
-210
Figura 5.1: L’efficienza di ricostruzione e il la risoluzione in 1pT
in funzione di η. A
confronto la tracciatura standard (in blu) e il DAF (in rosso) per muoni singoli con
pT=1 GeV/c.
Dai grafici sopra mostrati si conclude che per questa tipologia di eventi il DAF
riproduce i risultati della tracciatura standard, ma senza sostanziali miglioramenti.
Sia l’efficienza di ricostruzione che la risoluzione nella misura dei parametri della
traccia sono sostanzialmente invariati.
Questo e un risultato aspettato: il DAF infatti e fatto per comportarsi bene in
ambienti molto rumorosi e con elevata densita di hit e quindi a maggior ragione
per gli eventi sopra considerati, che sono caratterizzati da una bassa densita di hit
lasciati nel tracciatore.
A parita di prestazioni tra DAF e tracciatura standard quest’ultima e da prefe-
rire, poiche il tempo di ricostruzione e minore. Infatti il DAF introduce sei fit finali
della traccia, uno per ogni numero di iterazioni previste dal ciclo di annealing.
97
Eventi con produzione di una coppia tt
In figura 5.2 e mostrata l’efficienza di ricostruzione e il fake rate (calcolati con
l’associatore by hit1) in funzione di η per eventi in cui dalla collisione dei protoni
del fascio viene prodotta una coppia di quark tt, che a loro volta decadono in tempi
rapidi e danno luogo alla produzione di jet. Un evento di questo tipo genera in media
un centinaio di tracce cariche, che possono essere potenzialmente ricostruite dal
tracciatore di CMS. In questo tipo di eventi ci si aspetta un migliore comportamento
del DAF rispetto agli algoritmi standard di tracciatura, data la alta densita di hit e
l’elevato numero di tracce che attraversano il rivelatore.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0.8
0.82
0.84
0.86
0.88
0.9
0.92
0.94
0.96
0.98
1
ηefficiency vs
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.50
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
ηfake rate vs
Figura 5.2: L’efficienza di ricostruzione (a sinistra) e il fake rate (a destra) in
funzione di η. Vengono confrontate la tracciatura standard (in blu) e il DAF (in
rosso). Efficienza e fake rate sono calcolati con l’associatore by hits. Gli eventi
considerati sono tracce lasciate dal decadimento di una coppia tt.
Dalla figura 5.2 si evince che l’efficienza di ricostruzione col DAF (in rosso) e
leggermente piu alta in media rispetto alla tracciatura standard (in blu), anche se
le due rimangono confrontabili entro l’errore statistico. Nonostante cio il fake rate
si abbassa per il DAF, soprattutto nella regione in cui |η| > 1.5. Questa tendenza
1Per una spiegazione del funzionamento degli associatori rimando a paragrafo 3.4.2
98
viene confermata dall’analisi dell’efficienza e del fake rate in funzione del pT della
traccia, mostrata in figura 5.3. Si nota chiaramente che il fake rate diminuisce per
tracce con pT < 1 GeV/c.
Tp
0 2 4 6 8 10
tef
ficie
ncy
vs p
0.75
0.8
0.85
0.9
0.95
1
Tp
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5t
fakr
ate
vs p
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
Figura 5.3: L’efficienza di ricostruzione (a sinistra) e il fake rate (a destra) in
funzione del pT della traccia. Efficienza e fake rate sono calcolate con l’associatore
by hits. Vengono confrontate la tracciatura standard (in blu) e il DAF (in rosso).
Gli eventi considerati sono tracce lasciate dal decadimento di una coppia tt.
Per quanto riguarda la risoluzione nella stima dei parametri, in figura 5.4 la
risoluzione nella misura del pT della traccia del DAF viene confrontata con quella
della tracciatura standard, sempre in funzione di η. Si nota che la risoluzione dei
due algoritmi e confrontabile per tutto l’intervallo di η, tranne che nella regione in
cui |η| > 1.5, dove la risoluzione del DAF e peggiore. Quindi in questa regione ad un
miglioramento nell’efficienza corrisponde un peggioramento nella risoluzione, nella
tracciatura standard.
Per l’associatore by hits il confronto tra gli hit della traccia simulata e quelli della
traccia ricostruita non presenta ambiguita, dal momento che ad una traccia viene
assegnato un solo hit per layer, con peso 1. Nel caso del DAF invece ogni traccia
e formata da un’insieme di MultiRecHit (MRH). Questo crea ambiguita per quanto
riguarda l’associazione degli hit ricostruiti a quelli simulati. Questa ambiguita viene
99
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) t/p t
pδ(σ
-210
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) [c
m]
0 dδ(σ
-410
-310
-210
Figura 5.4: A sinistra la risoluzione di 1pT
per il DAF (in rosso) e per la traccia-
tura standard (in blu), per gli eventi con produzione di una coppia tt. A destra la
risoluzione del parametro di impatto nel piano xy, d0.
risolta associando alla traccia l’hit con il peso maggiore. Tuttavia questa procedura
presenta dei limiti, dal momento che un MRH puo essere formato da hit con pesi
molto simili (ad esempio un MRH formato da due hit con pesi 0.6 e 0.4). In questi
casi la scelta di prendere un hit piuttosto che l’altro e in qualche modo arbitraria.
Questo problema non si verifica nel caso dell’associatore by chi2, poiche que-
st’ultimo confronta i parametri delle tracce ricostruite rispetto a quelli delle tracce
simulate. In figura 5.5 sono invece mostrate l’efficienza e il fake rate calcolate con
l’associatore by chi2. Bisogna notare che l’efficienza e il fake rate sono molto peggiori
per la tracciatura standard, rispetto alle stesse grandezze calcolate con l’associatore
by hit (figura 5.3).
Questo effetto di diminuzione di efficienza e di aumento di fake rate e spiegato
con la difficolta di ricostruzione che incontra la tracciatura standard per tracce nella
regione ad alti η. In questa regione infatti ci si aspetta di trovare tracce con basso
pT , che sono difficili da ricostruire e in molti casi non lasciano hit negli strati piu
interni dei rivelatori a pixel. Per questa ragione il seeding delle tracce viene fatto
100
Figura 5.5: L’efficienza di ricostruzione (a sinistra) e il fake rate (a destra) in
funzione di η. Efficienza e fake rate sono calcolate con l’associatore by chi2. Ven-
gono confrontate la tracciatura standard (in blu) e il DAF (in rosso). Gli eventi
considerati sono tracce lasciate dal decadimento di una coppia tt.
lontano dalla linea del fascio e lo stato della traccia viene estrapolato da qui al
vertice dell’interazione, dove vengono valutati i parametri della traccia, che vengono
usati dall’associatore by chi2. Quando lo stato della traccia viene estrapolato su
una distanza cosı grande gli effetti di scattering multiplo e di perdita di energia
possono risultare sottostimati, a causa della descrizione semplificata del materiale
attualmente usata in CMSSW. Questo puo portare a una sottostima degli errori
associati ai parametri e conseguentemente far fallire l’associazione. Questo effetto
e molto evidente ad alti η e per bassi valori del pT della traccia, dove l’effetto dello
scattering multiplo e della perdita di energia si fa sentire maggiormente.
Invece le prestazioni del DAF rispetto all’efficienza e alla diminuzione di fake
rate sono ancora molto buone. Questo e dovuto al modo in cui viene fatta l’associa-
zione by chi2: in questo tipo di associazione vengono confrontati i parametri della
traccia simulata e di quella ricostruita, con il relativo errore. Nel caso del DAF
se l’estrapolazione della traccia e lontana dall’hit a quest’ultimo viene associato un
101
peso piu basso. L’assegnazione di un peso basso ad un hit della traccia porta anche
ad un aumento dell’errore associato all’hit stesso e, di conseguenza, ai parametri
della traccia, come visto nel paragrafo 4.1. Questo comporta una diminuzione del
valore del χ2 calcolato dall’associatore by chi2 e quindi un aumento del numero di
tracce associate. Questa ipotesi sembra essere confermata dalla distribuzione del
peso medio degli hit in funzione di η, mostrata in figura 5.6.
ηpseudorapidita’ −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
0.78
0.8
0.82
0.84
0.86
0.88
0.9
weight vs eta
Figura 5.6: Nella figura e mostrata la distribuzione della media dell’hit con peso piu
alto all’interno del MRH, in funzione di η. Si nota come quest’ultima ha un minimo
in corrispondenza della regione in cui il DAF ha un miglioramento di efficienza e di
fake rate rispetto alla tracciatura standard.
Possiamo concludere quindi che, nel caso di eventi con produzione di una coppia
tt, il DAF presenta un miglioramento per quanto riguarda l’efficienza e il fake rate
nella regione ad alti η e per tracce con un basso pT .
102
Eventi di QCD ad alto impulso trasverso
Analizziamo anche il comportamento del DAF nel caso di eventi di QCD ad alto
impulso trasverso (3000 GeV/c < pT < 3500 GeV/c). Questi eventi contengono jet
composti da numerose tracce contenute in un cono molto stretto, quindi la proba-
bilita che in fase di pattern recognition l’algoritmo di tracciatura standard scelga hit
sbagliati e alta.
L’efficienza di ricostruzione (associatore by hit) e mostrata in figura 5.7. L’ effi-
cienza di ricostruzione e molto piu alta nel caso del DAF, soprattutto nella regione
ad |η| < 1, dove e attorno al 90%, mentre per la tracciatura standard non va oltre
l’80%. Nella stessa regione il fake rate diminuisce di circa il 30%. Per valori maggiori
di η il comportamento dei due algoritmi e compatibile entro l’errore statistico, che
e molto grande, a causa del basso numero di tracce in quella regione, causato dal
taglio sull’impulso trasverso a cui faccio riferimento sopra.
Figura 5.7: L’efficienza di ricostruzione (a sinistra) e il fake rate (a destra) in
funzione di η. Efficienza e fake rate sono calcolate con l’associatore by hits. Vengono
confrontate la tracciatura standard (in blu) e il DAF (in rosso). Sono considerati
eventi di QCD con 3000 < pT < 3500 GeV/c.
In questi eventi quindi il DAF riesce a ovviare agli errori della ricostruzione
103
standard in fase di pattern recognition, riassegnando gli hit alle tracce a cui realmente
appartengono. Questo ha l’effetto di ridurre il fake rate e aumentare l’efficienza.
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) t/p t
pδ(σ
-210
-110
η-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
) [c
m]
0 dδ(σ
-410
-310
-210
Figura 5.8: A sinistra la risoluzione in pT per il DAF (in rosso) e per la tracciatura
standard (in blu), per gli eventi di QCD ad alto impulso trasverso. A destra la
risoluzione del parametro trasverso di impatto d0.
In figura 5.8 sono mostrate invece le risoluzioni dei parametri pT e d0 per la stessa
tipologia di eventi. Vengono confrontati il DAF e la tracciatura standard. Non ci
sono grosse differenze tra i due algoritmi, almeno nella regione dove si concentra
la maggior parte delle tracce, cioe |η| < 1. Per cui, a parita di precisione nella
ricostruzione dei parametri della traccia, il DAF ricostruisce molte piu tracce valide
rispetto alla tracciatura standard e molte meno tracce fake.
Come ci si aspettava il comportamento del DAF e migliore rispetto alla trac-
ciatura standard in eventi con alta densita di tracce, in cui vengono prodotti jet
adronici.
5.2 Il confronto tra DAF e tracciatura standard
Per studiare nel dettaglio le prestazioni del DAF ho scelto di confrontare gli hit
associati dal processo di tracciatura con gli hit simulati, sfruttando anche qui l’in-
formazione direttamente dalla verita Monte Carlo, ma a livello dei singoli hit, mentre
104
prima ho fatto uso della verita Monte Carlo per confrontare le tracce ricostruite con
quelle simulate. Una volta ricostruita la traccia, costituita da un insieme di hit,
questa viene associata ad una traccia simulata, usando uno degli associatori descrit-
ti nella sezione 3.4.2. A questo punto avro una traccia ricostruita, formata da un
insieme di hit ricostruiti, e una serie di tracce simulate ad essa associate, formate
ognuna da un insieme di hit simulati.
A questo punto vado a ricercare, per ogni hit della traccia ricostruita, il corri-
spondente hit simulato della traccia simulata. Nel caso del DAF la traccia e pero
composta non da hit, ma da MRH (MultiRecHit). In questo caso ho quindi scelto,
tra gli hit che compongono il MRH, quello con peso piu alto, e l’ho associato al
corrispondente hit simulato che lo ha prodotto2.
Ho diviso gli hit simulati in due tipologie, a seconda che siano hit dovuti al
passaggio di una sola traccia oppure no; a loro volta questi hit sono divisi in quelli
che effettivamente provengono dalla traccia simulata e in quelli che sono dovuti a
processi secondari, come la produzione di delta ray.
Inoltre puo capitare che un hit sia associato a piu hit simulati molto vicini. In
questo caso mi aspetto che la risoluzione sia peggiore. Ho quindi diviso gli hit in
due ulteriori categorie a seconda che corrispondano a uno o piu hit simulati.
Hit Not-merged
Nel caso in cui ad un hit ricostruito corrisponda un solo hit simulato, si parla di hit
not-merged. Ho diviso questo tipo di hit in tre tipologie differenti, che illustro di
seguito:
• Bad Hit: una volta fatta l’associazione tra hit ricostruito e hit simulato con-
fronto la traccia simulata a cui appartiene l’hit simulato con la traccia simulata
2Dall’hit simulato e possibile risalire alla traccia simulata che lo ha generato e al tipo di processo
che lo ha prodotto. Questo puo essere primario oppure secondario (delta ray, interazioni nucleari...)
105
corrispondente alla traccia ricostruita a cui appartiene l’hit ricostruito. Se sono
due tracce diverse allora parliamo di Bad Hit.
• Hit da processo secondario: nel caso in cui le due tracce siano le stesse,
vado a vedere quale e stato il tipo di processo che ha generato l’hit simulato.
Se questo non e un processo primario, per esempio e dovuto a delta ray o
interazioni nucleari, classifico l’hit in questa categoria.
• Good Hit: nel caso in cui le tracce siano le stesse ed il processo che ha
generato l’hit simulato sia un processo primario allora classifico l’hit come
Good Hit.
Hit merged
Si parla di hit merged nel caso in cui ad un hit ricostruito corrisponde piu di un hit
simulato. Questo accade, per esempio, quando si verificano processi di interazione
secondaria, per esempio delta ray, con produzione di particelle cariche che danno
segnale vicino a dove la particella ha rilasciato carica attraverso un processo di
interazione primario. Oppure quando due tracce passano nello stesso punto del
tracciatore, rilasciando carica in strip o pixel adiacenti. E’ una situazione che si
verifica per le tracce che appartengono allo stesso jet e nel caso di alta densita di
particelle, quando il numero di interazioni secondarie cresce. Gli hit merged sono
stati divisi in due tipologie:
• Bad Hit: una volta associato l’hit ricostruito a quelli hit simulati, per ognu-
no di questi risalgo alla traccia simulata a cui appartengono. Nel caso in cui
nessuno degli hit simulati provenga dalla stessa traccia associata alla traccia
ricostruita l’hit merged viene considerato un Bad Hit. Se le due tracce coinci-
dono, ma il tipo di processo che ha dato luogo all’hit simulato non e primario,
anche in questo caso l’hit merged viene considerato un Bad Hit.
106
• Good Hit: viene ripetuto il processo descritto al punto precedente. Pero, se
viene trovato almeno uno degli hit simulati che appartiene alla giusta traccia
ed e stato generato da un processo di tipo primario, questo viene considerato
un Good Hit.
Per ogni hit vengono salvate le informazioni relative alla posizione in coordinate
locali e globali, al peso (nel caso del DAF), al tipo di hit (se e un hit nei pixel o nelle
strip) e al modulo del tracciatore in cui si trova.
5.3 Studio del DAF negli eventi con produzione
di una coppia ttbar
Nel mio studio ho deciso di prendere in considerazione solamente gli eventi in cui
dalla collisione dei due fasci viene prodotta una coppia di quark tt. Il numero di
eventi simulati su cui ho condotto lo studio e 1000. Come abbiamo visto, per questi
eventi il DAF ha un’ efficienza di ricostruzione piu alta e un fake rate piu basso, per
tracce con pochi hit e nella regione ad |η| > 1.5. Questo e dovuto in parte al fatto
che in questa regione gli effetti dovuti alla presenza del materiale, come scattering
multiplo e perdita di energia, sono piu accentuati a causa della presenza di una
grande quantita di materiale passivo. La tracciatura standard presenta un calo di
efficienza a cui il DAF riesce a ovviare, ricercando gli hit all’interno di una finestra
piu ampia rispetto a quella della tracciatura standard.
Nei paragrafi successivi mostrero i risultati dell’analisi da me effettuata sulle
prestazioni del DAF per questi eventi.
5.3.1 Ottimizzazione dei parametri
Come visto nel paragrafo 4.1, il DAF e un algoritmo che dipende da diversi para-
metri, il cui valore puo essere modificato per ottimizzare la ricostruzione e la stima
107
dei parametri delle tracce ricostruite. In questo paragrafo confrontero quindi le
prestazioni del DAF per diversi valori di questi parametri.
Studio in funzione del χ2 degli hit
Nella fase di inizializzazione il DAF cerca, per ogni hit di ogni traiettoria ricostruita
utilizzando un semplice Kalman Filter, degli hit vicini che possono essere messi in
competizione per costruire il MRH con cui fare il fit successivo. La finestra entro il
quale andare a ricercare questi hit e definita da un certo valore del χ2, come abbiamo
visto nel paragrafo 4.1. Questo puo essere aggiustato a piacere, per studiare la
dipendenza dell’algoritmo dalla larghezza della finestra.
Nella tabella 5.1 e mostrato il numero di tracce correttamente ricostruite, il
numero di tracce fake e la percentuale di tracce fake sul totale delle tracce ricostruite,
per diversi valori del χ2 (usando l’associatore by hits).
Valore del χ2 # di tracce ricostruite % di tracce ricostruite # di tracce fake % di tracce fake
20 49420 0.902 5113 0.052
30 49440 0.903 5048 0.051
50 49460 0.903 4975 0.050
100 49500 0.904 4794 0.049
200 49540 0.904 4485 0.046
1000 49600 0.905 3584 0.046
Tracciatura standard 49300 0.900 5900 0.059
Tabella 5.1: Nella tabella sono mostrate il numero di tracce correttamente ricostrui-
te, la percentuale di tracce correttamente ricostruite, il numero di tracce fake e la
percentuale di tracce fake sul totale delle tracce ricostruite. L’associazione tra tracce
ricostruite e tracce simulate e fatta usando l’associatore by hits.
Dal confronto tra le tabelle 5.1 e 5.2 si nota che valori alti del χ2 portano a
un innalzamento dell’efficienza di ricostruzione, sia per l’associatore by hit, che per
l’associatore by chi2 . Inoltre il numero di tracce fake diminuisce per entrambi gli
associatori.
Esaminiamo ora la risoluzione dei parametri in funzione di η. In figura 5.9 e
108
Valore del χ2 # di tracce ricostruite % di tracce ricostruite # di tracce fake % di tracce fake
20 49460 0.903 12700 0.129
30 49490 0.903 12650 0.128
50 49530 0.904 12520 0.127
100 49530 0.904 12270 0.125
200 49620 0.906 12050 0.123
1000 49750 0.908 11390 0.119
Tracciatura standard 48660 0.888 50680 0.510
Tabella 5.2: Nella tabella sono mostrate il numero di tracce correttamente ricostrui-
te, il numero di tracce fake e la percentuale di tracce fake sul totale delle tracce
ricostruite. L’associazione tra tracce ricostruite e tracce simulate e fatta usando
l’associatore by chi2.
mostrata la risoluzione del pT in funzione di η. Non si notano grosse differenze
nella risoluzione. Questo vale anche per la stima dei parametri dxy (ovvero d0) e
dz (rimando al paragrafo 3.1 per la definizione dei parametri della traccia), come si
vede da figura 5.10.
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
pt r
esol
utio
n
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
Chi2=20Chi2=30Chi2=50
Chi2=100Chi2=200
Chi2=1000
for ttbar eventsηPt resolution vs
Figura 5.9: In figura la risoluzione di pT in funzione di η. Le prestazioni del DAF
vengono confrontate per diversi valori del χ2.
Le considerazioni precedenti vanno completate con una stima del tempo di ese-
109
cuzione dell’algoritmo. Quest’ultimo aumenta all’aumentare del valore di χ2. Infatti
per alti χ2 aumenta il numero di hit raccolti e quindi il numero medio di hit che
compongono un MRH. Per ognuno di questi, ad ogni ciclo di annealing, devono
essere calcolati e aggiornati i pesi. Tutte queste operazioni aumentano il tempo di
esecuzione dell’algoritmo. Quindi il valore ottimale del χ2 deve essere il piu alto
possibile, per ottimizzare le prestazioni, ma non altissimo, per non far aumentare il
tempo di esecuzione. Per questa ragione i valori di χ2 che ottimizzano le prestazioni
del DAF possono essere scelti tra 100 e 200.
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
dz r
esol
utio
n
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
Chi2=20Chi2=30Chi2=50
Chi2=100Chi2=200
Chi2=1000
for ttbar eventsηDz resolution vs
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
dxy
reso
lutio
n
0.002
0.004
0.006
0.008
0.01
0.012
0.014
0.016
0.018
0.02
Chi2=20Chi2=30Chi2=50
Chi2=100Chi2=200
Chi2=1000
for ttbr eventsηDxy resolution vs
Figura 5.10: In figura la risoluzione di dz e dxy in funzione di η. Le prestazioni del
DAF vengono confrontate per diversi valori del χ2.
Studio in funzione del ciclo di annealing
La scelta del ciclo di annealing e un’altro parametro configurabile, che si puo mo-
dificare per studiare il comportamento della tracciatura standard. Al variare della
lunghezza del ciclo, oppure del valore dei fattori di annealing, ci aspettiamo un
cambiamento nell’efficienza di ricostruzione e nella stima dei parametri.
In figura 5.11 sono mostrati i grafici di efficienza per quattro diversi cicli di
annealing, per l’associatore by hits e per quello by chi2. Si nota che la differenza
tra i diversi cicli e piu marcata nel caso si usi l’associatore by chi2. In questo caso
sembra essere migliore il ciclo di annealing 4, 1, 1, 1. Mentre per l’associatore
110
by hits non si nota alcuna differenza. In figura 5.12 e mostrato il fake rate, per
gli stessi cicli di annealing. Anche per questi la differenza e molto piccola nel caso
dell’associatore by hits, mentre aumenta nel caso dell’associatore by chi2.
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Effi
cien
cy
0.7
0.75
0.8
0.85
0.9
0.95
1
80,9,4,1,1,1200,80,9,4,1,1,1
9,4,1,1,14,1,1,1
for ttbar eventsηEfficiency vs
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Effi
cien
cy0.82
0.84
0.86
0.88
0.9
0.92
0.94
0.96
0.98
1
80,9,4,1,1,1200,80,9,4,1,1,1
9,4,1,1,14,1,1,1
for ttbar eventsηEfficiency vs
Figura 5.11: In figura l’efficienza di ricostruzione per diversi cicli di annealing. A
sinistra e usato l’associatore by chi2. A destra quello by hits.
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Fak
e R
ate
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
80,9,4,1,1,1
200,80,9,4,1,1,1
9,4,1,1,1
4,1,1,1
for ttbar eventsηFake rate vs
η−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Fak
e R
ate
0
0.02
0.04
0.06
0.08
0.1
0.12
80,9,4,1,1,1
200,80,9,4,1,1,1
9,4,1,1,1
4,1,1,1
for ttbar eventsηFake rate vs
Figura 5.12: In figura il fake rate per diversi cicli di annealing. A sinistra e usato
l’associatore by chi2. A destra quello by hits.
Poiche per analizzare il DAF ho fatto uso dell’associatore by hits, e questo non
presenta nessuna differenza apprezzabile al variare del ciclo di annealing, nel seguito
usero un valore di χ2 = 100 e un ciclo di annealing 80, 9, 4, 1, 1, 1 .
111
5.3.2 Analisi del comportamento del DAF per χ2=100
In questo paragrafo analizzero il comportamento del DAF rispetto alla tracciatura
standard, classificando gli hit di cui e composta la traccia ricostruita come visto nel
paragrafo 5.2.
In figura 5.13 viene mostrata la distribuzione degli hit delle tracce in funzione
di η, sia per la tracciatura standard che per il DAF: le due distribuzioni hanno
la stessa forma e presentano dei picchi in corrispondenza degli stessi valori di η,
corrispondenti ai punti in cui sono presenti i rivelatori. Ne possiamo dedurre che il
comportamento del DAF non presenta nessuna differenza rispetto alla tracciatura
standard per quanto riguarda la dipendenza da η.
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
110
120
130
140
150
160
170
310×
Figura 5.13: In figura la distribuzione in funzione di η degli hit di cui sono composte
tutte le tracce ricostruite con la tracciatura standard (rosso) e con il DAF (nero).
Prendiamo ora in considerazione gli hit bad. Questi sono stati definiti in prece-
denza nel caso della tracciatura standard. Nelle tabelle successive sono mostrati il
numero di hit totali, il numero di hit merged e tra questi il numero di quelli bad. Le
112
tabelle si riferiscono alla tracciatura col DAF (tabella 5.3) e alla tracciatura standard
(tabella 5.4).
Tipo di hit # totale di hit # di hit bad
Merged 175000 14000
Not-merged 1266000 10000 (processi secondari) e 44710 (bad)
# totale di hit 1441000 68710
Tabella 5.3: In tabella sono mostrati i valori del numero di hit bad e del numero
totale di hit, divisi per tipo, nel caso del DAF.
Tipo di hit # totale di hit # di hit bad
Merged 171300 12890
Not-merged 1257000 5852 (processi secondari) e 44260 (bad)
# totale di hit 1428300 63002
Tabella 5.4: In tabella sono mostrati i valori del numero di hit bad e del numero
totale di hit, divisi per tipo, nel caso della tracciatura standard.
Dal confronto tra le due tabelle si vede che il DAF raccoglie un numero di hit
maggiore, circa 13000 hit in piu. Questo e dovuto in parte al maggior numero di
tracce ricostruite dal DAF rispetto alla tracciatura standard. Tuttavia non puo
essere questa l’unica ragione che porta all’aumento del numero di hit. Infatti il
numero di tracce ricostruite in piu e di circa 200; questo porterebbe un numero
medio di hit per traccia di 65, mentre il numero medio di hit di una traccia ricostruita
col tracciatore di CMS e attorno a 15, per eventi tt. Bisognerebbe studiare quindi
che tipo di hit sono quelli ricostruiti dal DAF e se la loro distribuzione spaziale nel
rivelatore presenta qualche particolarita. La percentuale di hit bad sul totale e la
stessa sia per il DAF che per la tracciatura standard, di circa il 7-8% per gli hit
merged, del 4% per quelli not-merged.
113
Distribuzione degli hit in funzione della posizione locale
E’ interessante guardare dove, all’interno del singolo modulo, si concentrano gli hit
ricostruiti in piu dal DAF rispetto alla tracciatura standard. In figura 5.14 sono
appunto mostrati il numero di hit totali lasciati dalla traccia, in funzione della
coordinata locale del modulo. Il DAF raccoglie molti piu hit sui bordi dei moduli
rispetto alla tracciatura standard, soprattutto nei pixel. Qui la maggior parte degli
hit raccolti in piu dal DAF sono concentrati sul bordo dei moduli, nella regione in
cui i moduli si sovrappongono (overlap).
Posizione locale x [cm]-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 10
1000
2000
3000
4000
5000
6000
7000
Posizione locale x [cm]-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 10
200
400
600
800
1000
1200
1400
Figura 5.14: In figura la distribuzione degli hit in funzione della coordinata locale
del modulo, per i moduli dei pixel della parte forward (in alto) e della parte barrel
(in basso). Vengono confrontate la tracciatura standard (rosso) e il DAF (nero). Lo
scalino presente in entrambe le distribuzioni e dovuto al fatto che nei pixel ci sono
moduli di due larghezze diverse.
114
Questo puo essere interpretato tenendo conto del fatto che il DAF sfrutta molto
di piu gli overlap tra i moduli del tracciatore. Infatti il DAF va a ricercare gli hit da
mettere in competizione in una finestra piu ampia rispetto alla tracciatura standard,
mettendo in competizione gli hit sullo stesso layer, tranne quelli sugli overlap (vedi
paragrafo 4.2). Partendo da una traccia con un solo hit su un certo layer, in molti
casi il DAF trova un overlap, e quindi nel DAF si hanno due hit nello stesso layer piu
volte rispetto alla tracciatura standard. Questo spiega sia il fatto che il DAF trova
piu hit in generale, sia il fatto che la densita di hit sui bordi dei moduli (soprattutto
nei layer piu interni) sia piu alta rispetto alla tracciatura standard.
Distribuzioni dei pesi e confronti tra le distribuzioni degli hit
In figura 5.15 vengono mostrate le distribuzioni degli hit bad in funzione di η per il
DAF e per la tracciatura standard. Anche in questo caso la forma delle distribuzioni
e simile, con gli stessi picchi visti in precedenza per la distribuzione totale degli hit.
Rispetto alla tracciatura standard, e molto piu alto il numero di hit da processi
secondari che il DAF associa alla traccia. In figura 5.16 e mostrata la distribuzione
degli hit da processi secondari a cui vengono associati hit delle tracce. Vengono
confrontate la tracciatura standard e il DAF: e evidente come il DAF sia piu sensibile
all’associazione di un hit da processi secondari ad una traccia. Questa puo essere
vista come una conseguenza del fatto che il DAF ricerca hit in un intorno dell’hit
originario, preso dal primo step di tracciatura e quindi raccoglie tra gli hit da mettere
in competizione anche quelli dovuti a processi secondari (ad esempio delta ray).
Nonostante cio il DAF in generale assegna pesi molto piccoli ai bad hit che quindi
contribuiscono poco alla stima dei parametri della traccia, come si vede in figura
5.17. Per questa ragione, nel caso del DAF, definisco bad quegli hit bad che hanno
un peso associato maggiore di 0.5. Allo stesso tempo gli hit good sono definiti come
quegli hit correttamente associati alla traccia simulata e che hanno peso maggiore
di 0.5. Questo valore e in qualche maniera arbitrario, dal momento che il contributo
di un hit con un certo peso ad una traccia dipende anche dal numero di hit di
115
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
5500
6000
6500
7000
7500
8000
8500
9000
bad hits eta distributionbad hits eta distribution
Figura 5.15: In figura la distribuzione in funzione di η degli hit bad. Vengono
confrontate la tracciatura standard (rosso) e il DAF (nero).
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
200
300
400
500
600
700bad hits eta distributionbad hits eta distribution
Figura 5.16: In figura la distribuzione in funzione di η degli hit bad provenienti da
delta ray. Vengono confrontate la tracciatura standard (rosso) e il DAF (nero).
116
cui la traccia e composta. Tuttavia, se andiamo a considerare la distribuzione del
peso degli hit bad, mostrata in figura 5.17, vediamo che ha un picco per valori del
peso molto vicini a 1 oppure a 0; questo vuol dire che, dopo il ciclo di annealing,
quasi tutti gli hit vengono assegnati (oppure no) in maniera forte alla traccia e nella
regione tra 0.2 e 0.6 ci sono pochi hit. Per questa ragione i risultati che presentero
in seguito non dipendono molto dal valore del taglio sul peso scelto per considerare
un hit bad.
weight0 0.2 0.4 0.6 0.8 1
10
210
310
410
badall weight distributionbadall weight distribution
weight0 0.2 0.4 0.6 0.8 1
1
10
210
310
410deltaray weight distributiondeltaray weight distribution
weight0 0.2 0.4 0.6 0.8 11
10
210
310
410badmerged weight distributionbadmerged weight distribution
weight0 0.2 0.4 0.6 0.8 1
1
10
210
310
410
badnotmerged weight distributionbadnotmerged weight distribution
Figura 5.17: In figura la distribuzione dei pesi dei quattro tipi di hit bad. I grafici
sono mostrati in scala logaritmica. In alto a sinistra gli hit bad; in alto a destra
gli hit bad dovuti a processi secondari; in basso a destra gli hit bad dovuti a una
errata identificazione della traccia a cui appartengono; in basso a sinistra gli hit bad
merged.
Nella figura 5.17 e interessante notare come agli hit da processi secondari venga
assegnato un peso molto basso, per la maggior parte dei casi (vedi picco a zero).
117
Il DAF quindi e piu sensibile a raccogliere delta ray all’interno dei MultiRecHit (in
effetti gli hit da processi secondari vengono emessi molto vicino ai punti di passaggio
della particella nel rivelatore) ma assegna ad essi un peso molto basso in maniera
che contribuiscono poco alla stima dei parametri della traccia.
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
0.035
0.04
0.045
0.05
0.055
bad hits eta distribution
Figura 5.18: In figura la distribuzione in funzione di η della frazione di hit bad
rispetto al numero totale di hit. Vengono confrontate la tracciatura standard (rosso)
e il DAF (nero).
Abbiamo visto in precedenza che la distribuzione degli hit bad in funzione di η
non e diversa dalla distribuzione totale degli hit. Se invece andiamo a considerare
la frazione di hit bad rispetto al numero totale di hit e analizziamo la distribuzione
di questa quantita in funzione di η otteniamo il grafico mostrato in figura 5.18. La
distribuzione non e piatta e ci fornisce informazioni sulla zona del tracciatore dove si
ha piu probabilita di assegnare un hit sbagliato alla traccia in fase di ricostruzione.
La frazione di hit bad e costante per |η| < 1.5 ed ha un incremento per valori di |η|maggiori, fino ad arrivare a 0.06 per |η| ≈ 2. Il comportamento del DAF e simile a
quello della tracciatura standard: la forma della distribuzione e la stessa ed i valori
118
sono compatibili entro le incertezze associate.
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
0.06
0.08
0.1
0.12
0.14
0.16
bad hits eta distribution
Figura 5.19: In figura la distribuzione in funzione di η della frazione di delta ray
rispetto al numero totale di hit bad. Vengono confrontate la tracciatura standard
(rosso) e il DAF (nero).
Possiamo andare a vedere in dettaglio da dove provengono questi bad hit, se sono
merged oppure not merged, se sono hit da processi secondari oppure no e in che misura
ognuno di questi tipi di hit contribuisce alla distribuzione di figura 5.18. Nella figura
5.19 e mostrata la distribuzione della frazione di bad hit not-merged, provenienti da
processi secondari. Si nota che la distribuzione ha due picchi in corrispondenza di
|η| ≈ 1.5, nella regione di transizione tra barrel e endcap. Tuttavia la frazione di hit
da processi secondari e minore nel caso del DAF per tutto l’intervallo di η.
Nelle figure 5.20 e 5.21 sono mostrate le stesse distribuzioni per bad hit merged e
per bad hit not merged (esclusi quelli provenienti da processi secondari). Qui la dif-
ferenza tra DAF e tracciatura standard non e cosı marcata, essendo le distribuzioni
per DAF e tracciatura standard compatibili entro le fluttuazioni statistiche.
119
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
0.16
0.17
0.18
0.19
0.2
0.21
0.22
0.23
0.24
bad hits eta distribution
Figura 5.20: In figura la distribuzione in funzione di η della frazione di hit bad
merged rispetto al numero totale di hit bad. Vengono confrontate la tracciatura
standard (rosso) e il DAF (nero).
ηPseudorapidità −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
0.6
0.62
0.64
0.66
0.68
0.7
0.72
0.74
0.76
0.78bad hits eta distribution
Figura 5.21: In figura la distribuzione in funzione di η della frazione di hit bad
not merged rispetto al numero totale di hit bad. Vengono confrontate la tracciatura
standard (rosso) e il DAF (nero).
120
Si puo quindi concludere che il DAF e un algoritmo che consente di discriminare
meglio tra gli hit dovuti ai delta ray e quelli dovuti a processi di tipo primario.
La forma della distribuzione della frazione di hit bad e interpretabile tenendo
conto che, in quella regione di η, la tracciatura e resa piu difficoltosa dalla presenza di
materiale passivo: siamo infatti nella regione di transizione tra barrel e endcap, dove
l’efficienza di tracciatura diminuisce nettamente, come abbiamo visto nel paragrafo
3.4.
In questa regione il DAF sembra essere piu affidabile, nel senso che la frazione
di hit bad associati alla traccia e minore rispetto alla tracciatura standard. Questo
fatto puo essere spiegato con la peculiarita del DAF di cercare hit da mettere in com-
petizione in una finestra ampia, ovviando cosı ai problemi di scattering multiplo, che
possono causare una discrepanza anche grossa tra il punto in cui la particella e previ-
sta passare dal punto in cui effettivamente passa. Effetto che aumenta all’aumentare
del materiale che la particella deve attraversare.
121
Conclusioni
In questo lavoro di tesi mi sono occupato dello sviluppo e dello studio delle presta-
zioni di due algoritmi alternativi di tracciatura a CMS. In particolare ho studiato
le prestazioni del Deterministic Annealing Filter (DAF) in simulazioni di eventi ad
alta densita di particelle, come i jet prodotti dal decadimento di una coppia di quark
tt oppure prodotti da processi di QCD ad alto impulso trasverso. Ho inoltre im-
plementato il Multi Track Filter (MTF), una generalizzazione del DAF, che e piu
adatto alla tracciatura in ambienti densi di particelle, mentre il DAF e progettato
per comportarsi meglio in ambienti rumorosi.
Per quanto riguarda il DAF, mi sono occupato dell’ ottimizzazione dell’ algo-
ritmo, studiandone le prestazioni al variare dei parametri. Inoltre ho studiato in
che maniera il DAF si differenzia dalla tracciatura standard e a cosa sono dovute
queste differenze. Il DAF si e rivelato un algoritmo piu efficiente, nel complesso,
della tracciatura standard. Inoltre esso si e anche rivelato piu affidabile, in quanto
ricostruisce un numero minore di tracce fake, cioe false. Ho mostrato infatti che il
DAF e in grado di proteggersi dall’ assegnazione di hit (segnali) non appartenenti al-
la traccia che si vuole ricostruire. Questi sono molto comuni soprattutto in ambienti
con alta densita di particelle, e sono dovuti in larga parte a processi di interazione
non primari, vale a dire delta ray, processi di interazione nucleare, bremsstrahlung e
produzione di coppie (queste ultime due soprattutto nel caso degli elettroni). questi
segnali sono filtrati dal DAF e non entrano nella stima dei parametri della traccia
in modo significativo.
Per quanto riguarda il MTF, mi sono occupato della sua implementazione: ho
progettato la sequenza di ricostruzione, ho scritto il codice e ho collaudato l’algo-
ritmo su una simulazione di due muoni di pT = 10 GeV/c, riproducendo i risultati
della tracciatura standard. Ora il MTF fa parte del codice di ricostruzione di CMS,
l’algoritmo e funzionante e pronto per essere ottimizzato e per essere collaudato su
eventi ad alta densita di particelle. Per il miglioramento delle prestazioni del MTF
122
potranno essere usate molte delle informazioni che ho ricavato dallo studio del DAF,
come la distribuzione degli hit sui moduli, quella del peso a loro assegnato e della
relzione tra il peso e il tipo di hit.
123
124
Bibliografia
[1] The LHC Study Group, The Large Hadron Collider, Conceptual Design,
CERN/AC/95/05 (LHC), 1995.
[2] CMS Collaboration, CMS Physics, Technical Design Report, CERN/LHCC
2006-001.
[3] ATLAS Collaboration, ATLAS Detector And Physics Performance, Technical
Design Report, ATLAS TDR 14, CERN/LHCC 99-14.
[4] LHCb Collaboration, A Large Hadron Collider Beauty Experiment for Preci-
se Measurement of CP-Violation and Rare Decays, LHCb Technical Proposal,
CERN/LHCC 98-04, LHCC/P4.
[5] ALICE Collaboration, ALICE Physics, Performance Report, CERN/LHCC
2005-030.
[6] LHCf Collaboration, Technical Design Report of the LHCf experiment, LHCF-
TDR-001, CERN-LHCC-2006-004.
[7] TOTEM Collaboration, Total Cross Section, Elastic Scattering and Diffraction
Dissociation at the LHC, LHCF-TDR-001, CERN-LHCC-2006-004.
[8] CMS Collaboration, CMS: The Electromagnetic Calorimeter Technical Design
Report, CERN/LHCC 97-33, CMS TDR 4, 15 Dicembre 1997.
[9] CMS Collaboration, The CMS hadron calorimeter project : Technical Design
Report, CMS-TDR-002, CERN-LHCC-97-031.
125
[10] CMS: The Muon Project. Technical Design Report 1997, CERN-LHCC-97-32.
[11] CMS Collaboration, CMS: The Trigger and Data Acquisition Project, Vol. I:
The Level-1 Trigger Technical Design Report CMS/LHCC 2000-038, 2000.
[12] CMS Collaboration, CMS: The TriDAS project. Technical Design Report, Vol.
2: Data acquisition and high-level trigger CERN-LHCC-2002-026, 2002.
[13] M. E. Peskin, D. V. Schroeder, An introduction to Quantum Field Theory,
Perseus Books, 1995.
[14] R. Barate et al. (LEP Working Group for Higgs boson searches), Search for the
Standard Model Higgs boson at LEP, Phys. Lett. B565, 61 (2003).
[15] J. Goldstone, Nuovo Cimento 19 (1961) p. 154
[16] G. L. Bayatian et al. [CMS Collaboration], CMS technical design report, volume
II: Physics performance J. Phys. G 34, 995 (2007).
[17] T. Hahn and S. Heinemeyer and F. Maltoni and G. Weiglein and S. Willenbrock,
SM and MSSM Higgs Boson Production Cross Sections at the Tevatron and
the LHC, http://www.citebase.org/abstract?id=oai:arXiv.org:hep-ph/0607308,
2006
[18] Z. Kunszt and S. Moretti and W. J. Stirling, Higgs Production at the LHC: an
Update on Cross Sections and Branching Ratios Zeitschrift fur Physik C, 74,
1997
[19] A. V. Gladyshev and D. I. Kazakov, Supersymmetry and LHC
http://www.citebase.org/abstract?id=oai:arXiv.org:hep-ph/0606288, 2006
[20] S. Villa, Discovery Potential for SUGRA/SUSY at CMS, arXiv:hep-
ex/0309034v1, 2003.
[21] H.B. Nilles, Phys. Rep. 110 (1984) 1;
H.E. Haber and G.L. Kane, Phys. Rep. 117, (1985) 75.
126
[22] V. M. Abazov et al., Measurement of the CP-violation parameter of B0 mixing
and decay with pp→ µµX data, Phys. Rev. D 74, 092001 (2006).
[23] T. Speer, B physics at CMS, Journal of Physics: Conference Series 110, 2008.
[24] CMS Collaboration, The Tracker Project Technical Design Report,
CERN/LHCC 98-006 (1998). CMS TDR 5, Addendum CERN/LHCC
2000-016.
[25] H. C. Kastli et al., Design and performance of the CMS pixel detector readout
chip, Nucl.Instrum.Meth.A565:188-194,2006.
[26] R. Ranieri, The Simulation of the CMS Silicon Tracker, Conference Report
2008/007 (2007)
[27] L. Wilke, T. Chiochia, T. Speer, Lorentz angle calibration for the barrel pixel
detector CMS Note 2008/012 (2008).
[28] V. Ciulli, R. D’Alessandro, S. Frosali, C. Genta, Determination of the Lorentz
Angle in Microstrip Silicon Detectors with Cosmic Muons CMS Note 2008/006
(2007).
[29] L. Jones, APV25-S1 User Guide Version 2.2, 5 Settembre 2001.
[30] K.W. Bell et al., User Requirements Document for the Final FED of the CMS
Silicon Strip Tracker, 22 Febbraio, 2002.
[31] S. Gadomski et al., The Deconvolution Method of fast Pulse Shaping at Hadrons
Colliders, CERN-PPE/92-24, 31 Gennaio 1992.
[32] P. Murray, APVMUX User Guide Version 1.0, 9 Maggio 2000.
[33] K. Gill et al., 80Mbit/s Digital Optical Links for Control, Timing and Trigger
of the CMS Tracker, 2002.
127
[34] J. Troska et al., Optical readout and control systems for the CMS Tracker, IEEE
Trans. Nucl. Sci., Vol 50, No. 4, pp.1067-1072. (2003)
[35] ROOT analysis framework, pagina web: http://root.cern.ch.
[36] S. Cucciarelli, D. Kotlinski, T. Todorov, Position Determination of the Pixel
Hits, CMS Note 2002/049 (2002).
[37] S. Agostinelli et al., Geant4, a simulation toolkit, Nucl. In. and Meth. in Physics
Research A 506, 2003.
[38] Kalman, R. E., A New Approach to Linear Filtering and Prediction Problems
Transaction of the ASME-Journal of Basic Engineering, March 1960.
[39] R. Fruhwirth, Application of Kalman filtering to track and vertex fitting, Nucl.
Instrum. Meth., A 262, (1987).
[40] S. Cucciarelli, M. Konecki, D. Kotlinski, T. Todorov, Track reconstruction,
primary vertex finding and seed generation with the Pixel Detector, CMS Note
2006/026 (2006).
[41] W. Adam, B. Mangano, Th. Speer, T. Todorov, Track Reconstruction in the
CMS tracker, CMS Note 2006/041 (2005).
[42] M. Swartz, D. Fehling, G. Giurgiu, P. Maksimovic, V. Chiochia, A new techni-
que for the reconstruction, validation, and simulation of hits in the CMS Pixel
Detector CMS NOTE-2007/033
[43] M. Pioppi, Iterative tracking, CMS IN-2007/065 (2007).
[44] P. Azzurri, B. Mangano, Optimal filtering of fake tracks, CMS IN-2008/017
(2008).
[45] G. B. Cerati, Outlier Rejection during the Final Track Fit, CMS IN-2008/007
(2008).
128
[46] M. Winkler, A comparative study of track reconstruction methods in the context
of CMS physics, Ph. D. Thesis, CMS Thesis 2002-015, Vienna University of
Technology and CERN, 2002.
129