Chapitre 3 : radioactivité et structure de l'atome
Transcript of Chapitre 3 : radioactivité et structure de l'atome
1.1 Introduction
Malgré son nom, l'atome n'est cependant plus considéré comme un grain de matière insécable,depuis les expériences de physique nucléaire ayant mis à jour sa structure au début duXXe siècle.
Notre connaissance de la structure des atomes est très récente. En effet, la structure desatomes était totalement inconnue en 1895 !
C'est la découverte des rayons X par Röntgen en 1895 puis de la radioactivité par HenriBecquerel en 1896 et Pierre et Marie Curie à partir de 1898 qui a permis de commencer àcomprendre la structure des atomes.
Les électrons ont été identifiés par J. J. Thomson en 1897, puis, en 1911, Ernest Rutherford meten évidence l'existence du noyau atomique, puis la notion de proton s'impose peu à peu.
Cependant, pendant plusieurs années, les physiciens pensaient que le noyau était formé deprotons et d'électrons.
1 Historique de la radioactivité et de la mise en évidence de la structurede l’atome
Chapitre 3 : radioactivité et structure de l’atome
� En 1895, Roentgen découvrit que le bombardement d’une surface
de verre (ou de métal) par des rayons cathodiques (en fait desélectrons accélérés par un haut voltage) dans un tube à videprovoquait, à une certaine distance, la luminescence de minéraux
fluorescents.
1.2 Chronologie des découvertes
Le spectre des rayons X est composé d’une partie continue due au « rayonnement defreinage » ou Bremmstrahlung et de raies caractéristiques du métal de l’anode.
Dans un tube moderne à rayons X, lesélectrons sont émis par un filamentchauffé, puis ensuite accélérés dans le videsous une différence de potentiel allant de104 V à 106 V avant de venir frapper uneanode métallique, décélérer et émettre desrayons X.
Le 8 Novembre 1895, ayant recouvert d'un carton noir un appareil qu'il utilisait pour étudier les phénomènes
électriques, il s'aperçoit qu'un écran placé à proximité devient fluorescent. De plus, sa main passant derrière
l'écran fait apparaître l'ombre de ses os !
� 1895 - Wilhem ROENTGEN
et la découverte des rayons X
Professeur prussien,
directeur de l'Institut de physique de Wurzburg
Remarque :
On appelle luminescence l'émission de tout rayonnement électromagnétique visible,ultraviolet ou infrarouge, qui n'est pas d'origine purement thermique.
La luminescence est donc le caractère propre à de nombreuses substances d’émettre de la
lumière sous l’effet d’une excitation non thermique. La lumière est produite sans élévation dela température.
Le phénomène de luminescence se décompose toujours au moins en deux phases :
� l'excitation du système électronique des atomes de la substance ;
� la désexcitation au cours de laquelle l'émission lumineuse se produit.
L’absorption de rayonnements invisibles (rayons UV ou X) par certains corps tels que le sulfurede zinc engendre une émission lumineuse. Quand l’émission suit instantanément l’excitation,(t de l'ordre de 10 -8 s) on parle de fluorescence ; si l’émission se produit avec un retard
mesurable (t pouvant aller de la fraction de seconde à plusieurs jours), le phénomène estqualifié de phosphorescence.
http://micro.magnet.fsu.edu/primer/java/scienceopticsu/jablonski/index.html
Fluorescence et phosphorescence
Les recherches montrèrent que ces rayons n’étaient pas déviés par des champs électriqueset magnétiques et n’étaient donc pas des particules chargées.
On pensa qu’il pouvait s’agir d’une forme de lumière invisible, mais les réseaux ordinaires nepermettaient pas de mettre en évidence la diffraction et l’interférence des rayons X
Roentgen attribua ce phénomène à un nouveau type de
radiation (les rayons X) différents des rayons cathodiques.Roentgen trouva que ces rayons pénétraient certains
matériaux plus facilement que d’autres et présenta lapremière photographie aux rayons X de la main de safemme !
Ceci pouvait s’expliquer par l’hypothèse que la longueur d’onde des rayons X est beaucoup plus
petite que l’espacement typique entre les fentes des réseaux courants, ce qui s’avèrera exact.
Les longueurs d’ondes des rayons X sont en effet de l’ordre de l’Angstrom (10-10 m) (à compareraux longueurs d’ondes de la lumière visible qui sont de quelques centaines de nanomètres). Ilest évident qu’avec de telles longueurs d’onde, la diffraction par un réseau ordinaire avec destraits séparés de d ∼ 1000 nm tel qu’utilisé en optique ne donnerait rien.
Cet angle est trop petit : la raie correspondante serait trop proche du maximum central pourque l’on puisse la distinguer.
Cependant, puisque λ ∼ 1 Angstrom, qui représente environ la taille d’un atome, un réseau
pouvant résoudre les rayons X ne peut être gravé de manière artificielle, mais ce peut être uncristal !
C’est en 1912 que Max von Laue se rendit compte qu’un cristal solide pouvait former un réseau
à trois dimensions sur lequel les rayons X pouvaient « diffracter ». Max von Laue suggéra quesi, dans un cristal, la disposition des atomes espacés était effectivement régulière, on pourraitse servir des cristaux comme réseaux de diffraction
Diffraction des rayons X par un cristal : la profusion de taches est liée à la grande variété des
orientations des plans de réflexion définis par un réseau cristallin.
�1896 Après la découverte des rayons X par le physicien allemand Wilhelm C. Röntgen en 1895,de nombreux savants recherchent des sources naturelles de rayons X. Le physicien français Henri
Becquerel découvre fortuitement que des sels d'uranium émettent des rayons nouveaux, qu'ilappelle « uraniques ».
https://www.youtube.com/watch?v=hoa2jdUJ1Bg
Il étudie alors la fluorescence des sels d'uranium :
une fois exposés à la lumière du soleil ces sels
sont capables de ré-émettre de la lumière visible :
c'est la fluorescence.
1896 – Henri BECQUEREL
La radioactivité se dévoile
1896 – Henri BECQUEREL
Becquerel sort ses sels d'uranium au soleil, puis les
place contre des plaques photo recouvertes d'un
carton noir.
Les plaques sont impressionnées : pour Becquerel,
les sels d'uranium auraient donc émis des rayons X.
La semaine suivante, le ciel est couvert sur Paris.
Il est impossible d'exposer les sels d'uranium.
Becquerel range donc son uranium et ses plaques
photographiques dans un tiroir pendant plusieurs
jours.
Au développement, stupéfait, il constate que les
plaques sont impressionnées.
Cela n’est pas due à la fluorescence !
Eclairés ou non, les sels d’uranium produisent un
rayonnement dont les propriétés ne correspondent
pas aux rayons X :
le rayonnement radioactif est découvert par hasard
Les matériaux fluorescents seraient-ils aussi
émetteurs de rayons X ?
Des rayons provenant d'une substance inerte ! Des rayons émis spontanément sans que l'onapporte la moindre énergie!... Quel étrange phénomène! Becquerel les baptise « rayons U » etcontinue à étudier ces rayons étranges, mais en utilisant uniquement les sels d'uranium. Celal'empêchera d'accomplir le grand pas réalisé par Pierre et Marie Curie. Son rôle s'arrête là. Ilaura été « l'allumeur de l'étoile ».
�1897 Joseph J. Thomson et divers savants britanniques, allemands et néerlandais (dontP. Zeeman et H. Lorentz) découvrent l'électron, puis mesurent le rapport de sa charge électrique
à sa masse et définissent enfin son rôle comme un des constituants de l'atome.
� 1898 Les Français Pierre et Marie Curie, après avoir montré que le thorium émet aussi de
tels rayons, découvrent et isolent le polonium et le radium. Ils étudient les « rayons » émis(origine de cette énergie et lois de conservation ; aspect probabiliste de ces émissionsintroduisant pour la première fois dans la description d'un atome cet aspect aléatoire ; mesuresélectriques) et nomment ce phénomène de « radioactivité », comme l'appelle Marie Curie.
1897 – Marie et Pierre Curie
La radioactivité est née
A partir de plusieurs tonnes de
minerai de pechblende, Pierre et
Marie extraient à la main
quelques milligrammes d'une
autre substance, 2.5
millions de fois plus radioactive
que l'uranium :
le radium
Pour cette découverte,
Pierre et Marie Curie reçoivent le prix Nobel de physique en 1903
� 1900, découverte des rayons gamma par Paul Villard
Les rayons gamma constituent des rayonnements électromagnétiques, comme la lumière oules rayons X, mais avec des longueurs d’onde très petites, inférieure au picomètre (10-12
mètres). Ce sont les ondes électromagnétiques de plus petite longueur d’onde connues jusqu’àaujourd’hui. Leurs fréquences sont supérieures à 30 exahertz soit 3×1019 Hz.
Les rayons gamma sont de même nature que les rayons X mais sont d'origine et de fréquencedifférentes. Les rayons gamma sont produits par des transitions nucléaires tandis que lesrayons X sont produits par des transitions électroniques provoquées en général par la collisiond'un électron avec un atome, à haute vitesse.
Comme il est possible pour certaines transitions électroniques d'être plus énergétiques quedes transitions nucléaires, il existe un certain chevauchement entre les rayons X de haute
énergie et les rayons gamma de faible énergie. De plus, contrairement aux rayons X, on nepeut pas les dévier ou les focaliser à l'aide de miroirs.
La découverte des rayons gamma en 1900 est due à Paul Villard, chimistefrançais (1860-1934), qui a observé ce rayonnement lors de ladésexcitation d'un noyau atomique résultant d'une désintégration, ceprocessus d'émission est appelé radioactivité gamma. Il observe que cesrayonnements sont capables de traverser une fine lame de plomb etqu’ils sont insensibles aux champs électromagnétiques.
� André Louis Debierne (1874-1949), collaborateur de Pierre et Marie Curie, découvrel'actinium, autre corps radioactif.
� 1900 E. Rutherford introduit la notion de période radioactive.
� 1902 E. Rutherford et Frederick Soddy élaborent les lois physiques des
phénomènes radioactifs et démontrent que les radioactivités alpha et
bêta entraînent la « transmutation » d'un atome en un autre.
1903 – Ernest RUTHERFORD
La transformation spontanée
Les rayonnements ont pour origine une transformation spontanée d’un élément en un autre
� 1903 Becquerel et les Curie reçoivent le prix Nobel de physique pour leurs travaux sur laradioactivité.
�1905 Albert Einstein montre l'équivalence entre la masse et l'énergie d'une particule.
En 1905, en élaborant la théorie de la relativité restreinte, Einstein postule que la masse est
une des formes que peut prendre l'énergie.
Selon Einstein, un système de masse m possède lorsqu'il est au repos, une énergie :
Mais cette équivalence n’explique pas ce que représente fondamentalement la masse et ce qui
différencie la matière des rayonnements.
� 1908 La charge + 2 de la particule α est mesurée par Geiger et Rutherford, ce qui montremontre que la particule alpha est un hélium.
Hans Geiger was Rutherford’s main partner in alpha-ray research from
1907 to 1913. Together they developed several ways to detect alpha rays.
They proved alpha rays are doubly-ionized Helium nuclei. Ca. 1908.
� 1910 Lors du congrès international de radiologie, on définit le curie (Ci), radioactivité d'un
gramme de radium, comme unité de radioactivité. Quoique l'unité officielle soit devenue lebecquerel (Bq, une désintégration par seconde), le Ci (3,7 x 1010 Bq) est très utilisé dans lapratique, car il est plus intuitif. Par exemple, les sources de radiothérapie dans les hôpitauxsont exprimées en Ci.
�Rutherford montre l'existence d'un noyau de l'atome et propose un modèle de l'atome
(modèle de Rutherford) : un noyau entouré d'électrons. Il identifie cette structure à unsystème planétaire : le noyau joue le rôle du Soleil et les électrons celui des planètes. Frederick
Soddy et George Hevesy montrent l'existence d'isotopes d'un même atome ne différant quepar la masse du noyau. Ils ne publieront ce résultat qu'en 1913.
� 1914, mesure de la masse de la particule α par Robinson et
Rutherford.
Le physicien britannique Ernest Rutherford a donc permit d’identifier lanature du rayonnement radioactif : le rayonnement radioactif contient
des noyaux d'hélium (dits rayons alpha) et des électrons (dits rayons
bêta). Les rayons gamma correspondent à des ondes
électromagnétiques de très courtes longueur d’onde.
Comparaison des trois types de rayonnements
radioactifs selon leur pouvoir de pénétration de la
matière
�Années 1920 Mise au point de la théorie de l'atome par N. Bohr, W. K. Heisenberg, W. Pauli,
E. Schrodinger, P. Dirac, L. de Broglie, M. Born, H. Kramers, E. Fermi, S. Bose, A. Einstein.
�1932 Le physicien britannique James Chadwick établit l'existence du
neutron. Le noyau est ainsi constitué d'un assemblage de protons
(noyau de l'hydrogène) et de neutrons.
�1934 Découverte, en janvier, de la radioactivité artificielle par
Frédéric et Irène Joliot-Curie, ce qui leur vaudra, en 1935, le prixNobel de chimie.
� 1938-1939 À partir des expériences menée à Rome depuis1934 par l'Italien Enrico Fermi sur les neutrons ralentis et lesréactions nucléaires inexpliquées qu'ils produisent, lesAllemands Otto Hahn et Fritz Strassmann, dans la poursuite desexpériences initiées avec Lise Meitner (physicienne autrichiennetravaillant à Berlin, réfugiée en Suède en juillet 1938 aprèsl'Anschluss, qui fait que les lois raciales lui sont appliquées),découvrent la fission du noyau d'uranium.
�Lise Meitner et Otto Frisch, en Suède, expliquent ce phénomène par un modèle physiquemontrant notamment l'énergie dégagée et les émissions de rayonnements. En France,Frédéric Joliot et ses collaborateurs mesurent et publient le nombre moyen de neutrons
produits par une fission, chiffre qui permet d'envisager une réaction en chaîne, c'est-à-direune suite de fissions dans laquelle chacune d'elles est déclenchée par un des neutrons émislors de la précédente fission.
� 1940 Aux États-Unis Herbert L. Anderson et Enrico Fermi montrent, à l'universitéColumbia (New York), que le carbone est un modérateur convenable pour réaliser une
réaction en chaîne et en gardent le secret, compte tenu de la menace allemande.
� 1942 Première réaction nucléaire en chaîne, réalisée le 2 décembre par Enrico Fermi
(réfugié à cause des lois raciales) à l'université de Chicago.
http://www.youtube.com/watch?v=Nrmog5yKBok
La radioactivité artificielle et la fission
La radioactivité naturelle : l’épopée du radium
http://www.youtube.com/watch?v=UQFms-o26nE
1.3 Découverte des rayons X par Roentgen
La deuxième expérience de J.J. Thomson où il mesure la déviation du faisceau de « corpuscules
» par un champ électrique appliqué entre les électrodes (D) et (E). Le faisceau est issu de la
cathode (C) et passe à travers une fente aménagée dans l’anode (A) et un cylindre porté à la
masse (B). A l’extrémité du tube, une mire graduée permet de mesurer la déviation du faisceau.
Découverte de l’électron par Thomson
1.4 Découverte de l’électron
Découverte de l’électron par Thomson
http://www.cea.fr/jeunes/mediatheque/animations-flash/physique-chimie/decouverte-de-l-electron
Le modèle de l'atome de Thomson.
Il compare l'atome à une boule de matière de charge électrique positive, « piquée »d'électrons, particules de charge négative. Dans un matériau solide comme l'or, ces sphèresseraient empilées de façon à occuper un volume minimal.
Le rapport me / e des rayons cathodiques
• La valeur trouvée est : me/e = -5,686 x 10-12 kg/C (kilogramme parcoulomb)
• Cette valeur est environ 2000 fois plus petite que la plus petite valeurmesurée jusqu’à ce jour, qui était le rapport entre la masse et lacharge d’ions hydrogène.
• Cette observation suggère donc :– Si la charge d’une particule d’un rayon cathodique est comparable à celle
d’un ion H+, alors la masse d’une particule du rayon cathodique estbeaucoup plus petite que celle d’un ion H+;
– Si la masse d’une particule d’un rayon cathodique est comparable à celled’un ion H+, alors la charge d’une particule du rayon cathodique estbeaucoup plus grande que celle d’un ion H+.
• Thompson pensait pouvoir prouver la première hypothèse, mais n’ajamais pu mesurer précisément la masse ou la charge des particules.
Cette dernière expérience ne laissait plus de doute : l'électron existe. Thomson reçut d'ailleursle prix Nobel en 1906 pour sa découverte des électrons. Il fallut attendre 1909 pour queRobert Andrews Millikan mesure séparément la masse et la charge des électrons.
La charge de l’électron : l’expérience de la gouttelette
d’huile de Millikan
À l’aide de ce montage, Millikan a pu déterminer la charge de l’électron, qui est de e = -
1,602.10-19 coulomb.
L'expérience consiste à sélectionner une gouttelette et à analyser son mouvement sous l'action
des forces agissant sur elle à différentes valeurs d'ionisation :
L’expérience de la goutte d’huile, réalisée par Millikan(université de Chicago) au début du XXème siècle,consiste à pulvériser de minuscules gouttes d’huiles
électrisées entre les deux électrodes horizontales d'un
condensateur plan chargé. Les minuscules gouttessubissent plusieurs forces qui s'équilibrent rapidementet font que chaque goutte se déplace à vitesse
constante, mesurable avec une lunette de visée et unchronomètre.
� son poids vers le bas qui est constant ;� la poussée d’Archimède (puisque entre les
électrodes, il y a de l'air) qui est constante ;� la force électrostatique vers le haut
proportionnelle à sa charge électrique, et qui estproportionnelle au champ et constante dans unchamp uniforme ;
La résultante de ces trois forces est donc constante et est très rapidement compensée par lefrottement avec l’air ce qui conduit à observer un mouvement de la gouttelette à vitesse
limite constante puisque la somme des forces agissantes est nulle.
Millikan, par simple mesure de vitesse par le rapport de la distance parcourue sur le temps mis
pour la parcourir sur une gouttelette d'huile qu'il ionisait en l'irradiant par rayons X, observaexpérimentalement que les valeurs d'ionisation étaient toutes multiples entières de
e=1,592×10−19 C, constante que l’on connaît aujourd’hui sous le nom de charge élémentaire
(avec une valeur mise à jour légèrement différente : e=1,60217646×10−19 C) et que l’on notetraditionnellement e ; cette expérience s'est avérée être la première preuve de la quantification
de la charge électrique qui est strictement toujours un multiple entier positif ou négatif de cette
valeur fondamentale e.
Cette expérience et ses conclusions sur la quantification des chargesvalurent à Millikan le Prix Nobel de physique en 1923.
http://www.youtube.com/watch?v=DnO3mkCLYsI
Expérience de Millikan
La masse de l’électron
• Avec la valeur de la charge de l’électron (e = -1,602 x 10-19 coulomb), Millikan a également pu déterminer la masse de l’électron à l’aide des résultats de l’expérience de Thompson.
C 10 x 1,602 ; kg/C 10 x 5,686 19-12-−== e
e
me
kg 10 x 9,109 -31=em
1.4 Nature des particules alpha, beta et gamma
Dans les années qui suivent la découverte de la radioactivité, des physiciens se consacrent àl'étude des propriétés des éléments radioactifs.
Ils établissent que les rayonnements émis sont de trois types selon leur degré de pénétration et
leur charge électrique : alpha, bêta et gamma.
Ernest Rutherford identifie le rayonnement alpha à des noyaux d'hélium et les rayons bêta à desélectrons. Il montre en 1902, que ces rayonnements accompagnent la transformation de certainscorps en corps différents, une transmutation des atomes.
En 1900, Paul Villard à l'Ecole Normale identifie les rayons gamma à des photons de grande
énergie et de même nature que les rayons X.
Trois rayonnements
Ce schéma repris de Marie Curie, illustre l’action d’un champ magnétique sur les rayonnements
de radioactivité. Les rayons alpha déviés vers la droite étaient chargés positivement, les rayons
bêta, déviés vers la gauche, négativement , alors que les rayons gamma allant tout droit étaient
neutres. Plus tard également, après 1932, on observera des rayons bêta déviés vers la droite (ce
sera le rayonnement bêta-plus).
Rutherford vient juste de montrer que les particules α émises par certaines sources radioactivessont des ions hélium He2+ (atomes d'hélium ayant perdu 2 électrons). Lors de son expérience, ilbombarde une feuille d'or de très faible épaisseur (0,6 µm) par des particules α émises par unesource de radium. Les taches qui apparaissent sur un écran fluorescent lui permettent deconnaître la trajectoire suivie par les particules.
Rutherford constate alors que la grand majorité d'entre elles traversent la feuille d'or sans être
déviées, la tache lumineuse principale observée sur l'écran garde en effet la même intensitéavec ou sans feuille d'or. Quelques impacts excentrés montrent que seules quelques-unes sontdéviées. D'autres (1 sur 20 000 à 30 000) semblent renvoyées vers l'arrière.
1.5 Rutherford et la découverte du noyau
http://www.youtube.com/watch?v=kHaR2rsFNhg
Expérience de Rutherford
Expérience de Rutherford (généralités)
Expérience de Rutherford (description de l’appareillage)
http://www.mhhe.com/physsci/chemistry/essentialchemistry/flash/ruther14.swf
http://www.educationnumeriquepourtous.com/new/ressources/Ressources/flash_resources/edu_2.swf
En 1911, après une longue réflexion, Rutherford propose un nouveau modèle, dans lequell'atome est constitué d'un noyau chargé positivement, autour duquel des électrons, chargésnégativement, sont en mouvement et restent à l'intérieur d'une sphère. Le noyau est 104 à 105
fois plus petit que l'atome et concentre l'essentiel de sa masse. L'atome est donc
essentiellement constitué de vide.
1.6 Rutherford et la découverte du proton
Tout commence par une nouvelle bizarrerie expérimentale. Avec Marsden, Rutherford
bombardait en 1915 de l’hydrogène avec des particules alpha (avec du radon comme source) ;observation de reculs de l’hydrogène, caractérisés par des traces plus fines que celles des alphas.Mais Marsden signala une émission d’hydrogène par le radon avant le remplissage de la
chambre en hydrogène.
Rutherford ne crut pas à une nouvelle forme de radioactivité, mais plutôt à une contamination
de l’appareillage par l’hydrogène. Il nota en 1917-1918 que s’il remplissait la chambre d’oxygène
ou de gaz carbonique, le nombre de scintillations attribuables à l’hydrogène diminuait, comme ils’y attendait.
Mais il augmentait quand la chambre était remplie d’air et plus encore d’azote.
Il utilise une chambre à bulles, un dispositif mis au point par Charles Wilson (1869-1922)
La partie essentielle de ce dispositif est une enceinte remplie d’une atmosphère gazeuse
sursaturée en vapeur d’eau.
Dans une telle atmosphère toute particule ionisée constitue un centre de condensation.
Une particule ionisée en mouvement laisse donc une trace de fines gouttelettes d ’eau .
L’expérience de Rutherford de 1919 .
Schéma de l'appareillage: la chambre est remplie d'azote, une source d'alphas (la plaque sur le
pied) les projette sur les noyaux d'azote et éjecte des protons qui provoquent des scintillations sur
l'écran de sulfure de zinc à droite, observé au microscope.
Le phénomène n'apparaissait que pour des alphas d'énergie > 1,21 MeV.
La première hypothèse reposait sur l'ionisation des molécules d’eau présentes.
Mais le phénomène persista après suppression de l’eau, ce qui suggéra à Rutherford que l’azote
se transmutait au cours de la collision avec les alphas, et que les protons appartenaient au
noyau d’azote.
Notons qu'à cette époque, on n’imaginait pas que des particules puissent être créées dans lacollision, elles devaient nécessairement être présentes avant la collision et libérées par elle.
http://www.dailymotion.com/video/x1z3yah_discovery-of-proton_fun
C’est encore Rutherford qui en 1919 met en évidence l’existence du proton en « démolissant »
des noyaux d’azote .
Il place un petit morceau de substance radioactive (polonium, émetteur alpha) dans une
atmosphère d’azote. Les particules alpha émises par la substance radioactive sillonnent le gaz
et certaines atteignent des noyaux d’azote .
En étudiant les atomes du gaz soumis à un champ magnétique, Rutherford montra que des
particules portant une charge positive, égale en valeur absolue à celle de l’électron,
apparaissaient dans le gaz d’azote . De plus leur masse était pratiquement identique à celle de
l’atome d ’hydrogène .OHNHe 17
8
1
1
14
7
4
2+→+
Rutherford réalise à cette occasion la première transmutation d’élément .
1.7 Le modèle atomique de Rutherford
La prédiction de l’existence du neutron est une conséquence des réactions de
transmutation, analogues à celle décrite précédemment .
En effet l’atome d’oxygène produit par cette réaction nucléaire n’est pas identique à
l’atome d’oxygène naturel.
OHNHe 17
8
1
1
14
7
4
2+→+
L’atome d’oxygène naturel a une masse atomique de 16 alors que celui obtenu par la
réaction de Rutherford a une masse de 17. Les deux noyaux ont la même charge mais
des masses différentes (ce sont des isotopes). Les noyaux comportent autre chose que
des protons .
http://www.dailymotion.com/video/x205gpv_rutherford-s-atomic-model_fun
En 1931, Irène et Frédéric Joliot-Curie observent les neutrons mais sanscomprendre leur nature.
1.8 Chadwick et la découverte du neutron
En 1932, James Chadwick montreque le neutron est un partenaire
neutre du proton dans le noyau.
http://www.dailymotion.com/video/x1z3yy6_discovery-of-neutron_fun
L’expérience de Chadwick de 1932 .
Il utilise aussi le dispositif mis au point par Charles Wilson (1869-1922)
L’expérience de Chadwick consiste à bombarder des atomes de béryllium avec des
particules alpha. Il constate alors que la trajectoire de certains ions du gaz est déviée
par une particule qui ne laisse aucune trace.
C’est donc que cette particule est électriquement neutre. L’étude des déviations
observées montre que cette nouvelle particule (le neutron) a une masse proche de celle
du proton (légèrement supérieure).
nCBeHe 1
0
12
6
9
4
4
2 +→+
Histoire de la découverte de l’atome
Découverte des constituants de l’atome (en anglais)
http://www.youtube.com/watch?v=kBgIMRV895w
http://www.youtube.com/watch?v=7mbCB46oDWA
http://www.youtube.com/watch?v=HpzKinLWEJ0
C’est pas sorcier : au cœur de la matière
Le nombre de nucléons est noté A, on l’appelle aussi le nombre de masse.
Le nombre de protons que contient le noyau est noté Z. On l’appelle le numéro atomique ou lenombre de charges.
Les deux nombres A et Z suffisent pour caractériser un noyau.
Le nombre de neutrons vaut : N = A – Z.
2 L’atome, avant la mécanique quantique
2.1 Généralités
Un atome est constitué d'un noyau concentrant plus de 99,9 % desa masse, autour duquel se distribuent des électrons pour formerun nuage 40 000 fois plus étendu que le noyau lui-même.
Le noyau est constitué de protons, chargés positivement, et deneutrons, électriquement neutres. Neutrons et protons portent lenom de nucléons.
Les caractéristiques du proton et du neutron
Caractéristiques du proton et du neutron
Proton Neutron
masse1,6724×10-27 kg
1,00727 u
1,6747×10-27 kg
1,00866 u
charge1,60219×10-19 C
+ e0
Structure atomique
http://www.youtube.com/watch?v=jAVWxPGYAu4
Quelques chiffres…
La taille de l’atome est de l’ordre du dixième de millionième de millimètre c'est à dire : 10-10 m =0,000 000 000 1 m.
Le nombre d’atomes d'une toute petite parcelle d'un corps est si grand qu'il défie l'imagination.
Une tête d'épingle de 1 mm3 contient environ 80 000 000 000 atomes de fer.
Une goutte d'eau contient environ mille milliards de molécules d'eau qui elles-mêmescontiennent chacune 3 atomes.
Un noyau d'atome a une taille de l'ordre de 10-15 m, soit cent mille fois plus petit que l'atomelui-même.
Un électron est théoriquement une particule ponctuelle, elle ne doit donc pas avoir de taille... Entout cas, si l'électron a une taille, elle est inférieure à 10-18 m, soit au moins cent millions de foisplus petit que l'atome.
Taille et masse des composants nucléaires
La masse d'un nucléon (les protons et les neutrons ont quasiment la même masse) est de 1,7
10-27 kg, soit moins de deux millièmes de milliardième de milliardième de milligramme.
La masse d'un électron est de 9,1 10-31 kg, soit environ 1840 fois moins qu'un nucléon.
Ainsi, 99,97 % de la masse d'un atome est dans son noyau.
Comme le noyau est très petit, la masse d'un atome est donc très concentrée.
Ainsi, si on supprimait le vide qu'il y a autour des noyaux des atomes, la Terre pourrait tenir
dans une sphère de seulement 150 m de rayon !
A chaque couple de valeurs (Z, A), correspond un type de noyau que l’on note :
où X est le symbole de l’élément chimique.
En conséquence, la notation représente le noyau d’un atome. Il existe environ 350 noyaux
naturels et plus de 2500 noyaux artificiels obtenus en laboratoire.
Chaque élément chimique présente en général plusieurs isotopes.
Des noyaux possédant le même nombre de protons mais des nombres différents de neutrons
sont appelés isotopes en physique nucléaire et en chimie
Le nombre de protons dans le noyau d'un atome étant désigné par le numéro atomique Z, deux
isotopes ont le même nombre Z.
Ce qui distingue deux isotopes est qu'ils ont un nombre de masse A différent. Le nombre demasse d'un atome est le nombre de nucléons que contient le noyau de cet atome. La différencede nombre de masse est donc due à une différence dans le nombre de neutrons N.
En mots plus simples, ce sont des atomes qui se différencient uniquement par leur nombre deneutrons, exception faite des cas d'ionisation (où on a aussi des nombres d'électrons différents).
2.2 Isotopes
Exemples d’isotopes :
http://www.dailymotion.com/video/x1z3xka_isotopes_fun
Remarque :
Deux atomes ayant :
�le même Z mais un A différent sont des isotopes
�le même A mais un Z différent sont des isobares
�le même N mais un Z différent sont des isotones
Exemples :
Toujours plus lourd... Une molécule d'eauordinaire est constituée de deux atomesd'hydrogène et d'un atome d'oxygène. Dans ladeuxième fiole, l'hydrogène est remplacé parl'un de ses deux isotopes, le deutérium. Tousles atomes d'hydrogène ont été remplacés pardes atomes de tritium dans le troisième flacon,qui est le plus lourd. En mai 1950, LifeMagazine a utilisé cette photo pour fairecomprendre la notion d'isotope « lourd » à seslecteurs.
2.3 Unité de masse atomique
On définit l’unité de masse atomique (uma., ou Dalton Da) (masse atomique relative) comme étant 1/12 de la masse atomique de l’isotope 12C du carbone.
3.1 Problème de l’instabilité de l’atome
3 Naissance de la physique moderne
3.2 Deux petits nuages...
Le déroulement de la science était plutôt serein au pointqu'en 1900 William Thomson (Lord Kelvin), un représentantéminent de la physique de son temps annonçait que la fin de
la physique était proche :
« Rien de nouveau ne sera désormais découvert en physique.
Les seuls progrès consisteront en des mesures de plus en plus
précises. »
Le premier petit nuage aboutira à la physique relativiste issue des théories de la Relativité
(restreinte et générale) d’Einstein ; quand au second petit nuage, il deviendra plus tard latempête « Mécanique quantique ».
Pourtant, il était préoccupé par deux petits « nuages sombres ».
En 1900, il donna une conférence intitulée « Nineteenth-century clouds over the dynamical
theory of heat and light » au cours de laquelle il déclara :
3.3 Le spectre de l’atome d’hydrogène, à la base du modèle atomique de Bohr
Le modèle de Bohr, introduisant une quantification des énergies permises
http://www.dailymotion.com/video/x1z3wq8_bohr-s-atomic-theory_fun
À la fin du XIXème siècle, la lumière est donc vue comme une vibration qui se propage et quisuppose donc l'existence d'un milieu qui vibre (comme l'air dans le cas du son, par exemple).
Le problème est que la lumière se propage aussi dans le vide (entre les étoiles et nous, parexemple), là où a priori il n'y a rien qui peut vibrer...
Or, on ne pouvait imaginer une onde sans un milieu matériel pour la porter. On pensait doncqu'à l'image des ondes sonores qui sont des ondes de pression dans l'air, la lumière en
l’absence de milieu matériel consistait en la propagation d'une perturbation dans un milieu
invisible baignant tout l’Univers et que l'on appela très poétiquement éther.
De plus, comme la théorie de Maxwell avait permis d'identifier la lumière à un phénomène
électromagnétique, l'éther devait être constitué de petits dipôles électriques. Ainsi, tout seramenait au mouvement de charges qui, en vibrant, permettaient le passage de laperturbation.
3.4 La lumière, à la base de la relativité d’Einstein
On ne doit plus résoudre que le problème de la nature du milieu (l’éther) permettant la
propagation de ces ondes électromagnétiques.
Cependant l'éther avait des propriétés étranges... Tout d'abord il devait pénétrer tous les
corps, et n'offrir aucune résistance à leur mouvement, sans quoi il aurait ralenti les planètesdans leur course.
Mais dans le même temps, il devait se comporter comme un solide ! En effet, les ondes
lumineuses sont transversales, et jamais longitudinales, contrairement aux ondes sonores, etcela impose que le milieu de propagation soit solide.
Mieux : la vitesse très élevée des ondes lumineuses nécessitait que l'éther soit extrêmement
comprimé.
Tout cela était bizarre, mais le pire était à venir...
Les équations de Maxwell font intervenir lavitesse de la lumière c et impliquent que les
ondes électromagnétiques se déplacent à cette
vitesse.
Par conséquent, les équations de Maxwell ne sauraient être valables dans tous les référentiels
d'inertie (la vitesse étant une notion relative à l’observateur et donc au référentiel).
La théorie de Maxwell permet d’expliquer tous les phénomènes électriques, magnétiques et
lumineux connus ; mais elle semble en désaccord avec le principe de l’invariance galiléenne.
En effet, la théorie semble prédire que les ondes électromagnétiques vont toujours « à la
vitesse de la lumière », quel que soit le référentiel.
Pour sauver les apparences, on peut supposer que les équations de Maxwell, qui prédisentque les ondes électromagnétiques vont à la vitesse c ne sont valables que dans un référentiel
particulier, celui où l'éther est au repos.
Dans tout autre référentiel, le mouvement par rapport à l'éther peut donc être détecté parune expérience d'électromagnétisme (par exemple avec de la lumière), interne au référentiel.
Cette « solution » au problème indisposait Einstein car elle viole le principe de relativité
galiléen étendu à l’électromagnétisme.
« Aucune expérience de physique (mécanique, électromagnétisme optique, etc.) ne
permet de mettre en évidence le mouvement rectiligne et uniforme du référentiel
galiléen dans lequel s’effectue l’expérience ».
En d’autres mots, plus simples :
Les lois de la physique sont les mêmes dans tous les référentiels galiléens.
Einstein se posait cette question en ces termes :
« Que se passerait-il si je me déplaçais à la vitesse de la lumière en tenant devant moi un
miroir ? Si je me vois, c'est que la lumière qui quitte mon visage va plus vite que c, ce qui est
contraire aux équations de Maxwell. Mais si je ne me vois pas, alors je sais que je bouge sans
regarder dehors, ce qui est contraire au principe de relativité de Galilée ! »
Il se posa cette question pendant des années avant d'entrevoir une réponse. Nous verronsque c'est là tout le génie d'Albert que d'avoir pris le principe de relativité galiléen au sérieux.
Pour beaucoup d’autres physiciens, acceptant la « solution » avancée, s'il existe un état de
repos absolu détectable par des expériences d'électromagnétisme ainsi soit-il !
On tente donc de de mettre en évidence, dans un référentiel quelconque, par exemple leréférentiel terrestre, les variations de la vitesse de la lumière dans un référentiel quelconque
par rapport à la vitesse de la lumière dans l’éther.
Comme il était inconcevable que la Terre soit immobile par rapport à cet éther, uneexpérience se basant sur la loi classique d'addition des vitesses a été conçue par Michelson
pour mesurer les variations de la vitesse de la lumière dans son support supposé dues à lavitesse de déplacement de la Terre par rapport à l’éther.
L’optique ondulatoire de Fresnel et la théorie électromagnétique de Maxwell impliquent unmouvement de la Terre par rapport à l’éther ce qui doit pouvoir être mis en évidence, parexemple à l’aide d’un appareil très précis appelé interféromètre.
C’est à cette détermination que s’attache les physiciens américains Albert Michelson etEdward Morley.
Comme la Terre se déplace sur son orbite avec une vitesse d'environ 30 km/s, la Terreconstitue le laboratoire idéal pour déceler une variation de la vitesse de la lumière sur desparcours identiques en longueur mais qui devaient être différents en temps selon qu'ilsseraient dans le sens du mouvement ou perpendiculairement au vent d'éther.
On construit l'appareil de telle sorte queles miroirs M1 et M2 soient à égaledistance, D, de la lame séparatrice.
Alors, si la Terre est immobile par rapport à
l'éther, les deux trajets dans les deuxdirections perpendiculaires sont égaux(même distance parcourue, même durée
de trajet).
Si, en revanche, la Terre est en mouvement par rapport à l'éther, à la vitesse v dans unedirection (vers M1 par exemple), alors les deux trajets ne sont pas faits à la même vitesse, etla distance parcourue n'est pas la même dans les deux directions :
L'écart de temps attendu est trop faible pour être directement mesuré, aussi Michelsonutilise le fait qu'il doit produire un retard de phase (ou déphasage) et donc des franges
d'interférences. Il construit un appareil auquel on a donné son nom, l'interféromètre de
Michelson.
Il s'agit donc d'une quantité trop petite pour être mesurable avec une grande précision. Parcontre, on peut espérer la mettre en évidence par méthode optique, i.e. par l'observation
des franges d'interférence. En effet, le chemin optique - ou la différence de marche - δ = c.test tel que Δδ = c.Δt. On calcule l'ordre d'interférence Δp par définition, et compte tenu de lavitesse orbitale de la Terre sur son orbite 30 km/s :
c’est-à-dire très visible et donc parfaitement mesurable.
Or, l’expérience de Michelson et Morley n’a jamais permis une telle mesure : le résultat était
toujours négatif !
Le problème soulevé par les conclusions
négatives de l’expérience de Michelson en1887 (la Terre ne se déplace pas par rapport à
ce mystérieux éther) ne trouvera sa solutionau sein de la « théorie de la Relativité
restreinte » d’Albert Einstein.
Celle-ci considère l’éther lumineux comme «superflu » mais détruit au passage les concepts
de temps et d’espace absolus qui fournissaientle cadre d’étude de la mécaniquenewtonienne.
La vitesse de la lumière apparaît dans cette
théorie comme une constante de structure de
« l’espace-temps » et une constante universelle
de la physique : la lumière se déplace toujours
(c’est-à-dire quel que soit l’observateur) à la
vitesse... de la lumière !
Einstein finit par comprendre que la solution pour se tirer de ces contradictions consistait àénoncer deux principes premiers, ou postulats.
Le premier, dont nous avons déjà parlé, est le principe de relativité galiléen étendu à toute la
physique.
Postulat 1 : principe de relativité galiléen étendu.
Les lois de la physique sont les mêmes pour tous les observateurs inertiels.
Einstein prend Galilée au sérieux : le mouvement uniforme est vraiment relatif, on ne peut le
mettre en évidence d'aucune façon.
Le second postulat est l'invariance de c.
Postulat 2 : invariance de la vitesse de la lumière.
La vitesse de la lumière est la même dans tous les référentiels inertiels.
3.5 La catastrophe ultravioletteLa catastrophe ultraviolette, formulée dans la seconde moitié du XIXe siècle et ainsi nomméepar le physicien autrichien Paul Ehrenfest, est une prédiction contre-factuelle (c’est-à-direcontredite par l’observation) des théories classiques de la physique — électromagnétisme etphysique statistique :
un corps chauffé, à l'équilibre thermodynamique est censé rayonner un flux infini.
Plus précisément, l'énergie rayonnée par bande de longueur d'onde doit tendre vers l'infini
quand la longueur d'onde tend vers zéro, « dans l'ultraviolet » pour les physiciens del'époque, puisque ni les rayons X ni les rayons gamma n'étaient alors connus.
3.5.1 Le rayonnement du corps noir et la revanche des « corpusculistes »
Par un renversement inattendu de l’histoire, la résolution du problème posé par la« catastrophe ultraviolette », ainsi que la présence de discontinuités dans le rayonnement
émis par le corps noir devait renouveler, au début du XXème siècle, une hypothèse
favorable à des agglomérats énergétiques dans le rayonnement émis (aspect
corpusculaire de la lumière).
3.5.2 La loi de Rayleigh-Jeans
En juin 1900, Lord Rayleigh proposa une autre expression quiconcordait mieux pour des grandes longueurs d’onde.
John William Strutt,
troisième baron Rayleigh
-4( , )R T CTλ λ=
�Pour de grandes longueurs d'onde, la loi de Rayleigh-Jeans convenait.
�Mais cette loi est totalement inadéquate pour descourtes longueurs d’onde (l’énergie émise tend versl’infini).
�Pour des très courtes longueurs d’onde, l’observationindiquait au contraire une énergie émise nulle.
�Cette contradiction est appelée « catastropheultraviolette ».
La théorie classique n’expliquait pas les donnéesexpérimentales.
3.5.3 L’idée géniale de Max Planck
Le physicien allemand Max Planck (1858-1947) introduit commehypothèse la quantification des échanges d’énergie entre la
lumière et la matière et fait apparaître une nouvelle constante
fondamentale en physique (la constante de Planck).
Grâce à cette hypothèse, il reproduit
théoriquement les courbes expérimentales
caractérisant le rayonnement émis par un
corps chauffé (théorie du corps noir).
Depuis ses tous premiers travaux en physique théorique, Max Planck s’était passionné pour lathéorie de la chaleur et il avait été l’un des premiers à comprendre clairement le secondprincipe de la thermodynamique. Ses professeurs n’étaient autres que Helmholtz et Kirchhoff,il était donc bien préparé pour s’attaquer au problème du rayonnement thermique.
� Selon Planck, les parois de la cavité se comportentcomme des petits oscillateurs harmoniques.
� Les oscillateurs ne pouvaient osciller qu’avec uneénergie représentant un multiple de h.f où f est lafréquence de l’oscillation harmonique.
Par conséquent :
� La matière ne peut émettre l’énergie radiante que par
quantités finies proportionnelles à la fréquence.
� Le facteur de proportionnalité est une constante
universelle, ayant les dimensions d’une actionmécanique, la célèbre constante de Planck :
h = 6,626 x 10-34 J.s
3.5.4 Physique classique vs physique quantique
L’idée de Planck représente une coupure dramatique avec la physique classique qui permettoutes les valeurs d’énergie pour un système physique.
Un des fondements de la théorie newtonienne est : « La nature ne présente pas de
discontinuités ».
3.6 L’effet photoélectrique
3.6.1 Définition
On appelle effet photoélectrique externe l'extraction d’électrons de la matière sous l’effet de la
lumière.
3.6.2 Brève histoire de la découverte de l'effet photoélectrique
Divers phénomènes d'origine photoélectrique ont été découverts tout au long du dix-neuvième siècle :
�En 1839, Alexandre Edmond Becquerel découvre que si on illumine une électrode d'undispositif composé de deux électrodes identiques plongées dans un électrolyte, il peut
apparaitre dans certains cas une différence de potentiel entre ces deux électrodes (d'environ10-4V). Le mécanisme exact, qui peut être effectivement basé sur une photoémission,ou plus simplement sur une modification photochimique sans émission d'électron, n'acependant jamais été établi avec certitude.
�En 1873, W. Smith découvre la photorésistance du Sélénium.
�En 1887, H. Hertz découvre que la tension nécessaire pour produire une décharge dans un
gaz raréfié est réduite lorsque la cathode est illuminée par de la lumière ultra-violette.
�Une année plus tard, un étudiant de Hertz, W. Hallwachs, montre qu'une plaque de zinc
isolée prend, sous l'action d'un éclairage UV, une charge positive.
Inversement, une plaque de zinc initialement chargée négativement et même lorsqu'elle estplacée dans un vide poussé, se décharge par insolation UV.
�Suite à la découverte de l'électron par J.J. Thomson en 1899, P. Lenard est le premier àsuggérer au cours de la même année, que les rayons produits dans les expériences de Hertz
et Hallwachs correspondent à l'émission d'électrons par la cathode.
Lenard détermine ainsi en 1902 le rapport e/m entre la charge et la masse de l'électron.
L’étude de Lenard
Une enceinte vidée renferme une cathode d’un matériau dont on veut faire l’´etude et uneanode l’entourant. La forme de l’anode est étudiée pour assurer une collection maximale desélectrons émis par la cathode.
Par la fenêtre de quartz pénètre une lumière ultraviolette monochromatique. La lumière estincidente sur la cathode (aussi appelée photocathode) et libère des électrons (aussi appelésphotoélectrons). Avec une différence de potentiel V entre anode et cathode positive, nouspouvons collecter les électrons sur l’anode, ce qui donne lieu à un courant détectable.
3.6.3 Lénard découvre les lois de l’effet photoélectrique
Avec de dispositif, Lénard découvre les lois fondamentales suivantes, qui caractérisent l'effetphotoélectrique :
� Première loi : le phénomène n’apparaît que lorsque la fréquence de la lumière incidente est
supérieure à une fréquence précise, ν0, appelée seuil photoélectrique, dépendant de la naturedu métal ; en d’autres mots, si ν < ν0 , l’effet photoélectrique ne se produit pas, quelle que soitl’intensité lumineuse.
Existence d’un seuil pour l’effet photoélectrique
Le curseur du potentiomètre nous permet de varier cette différence de potentiel et doncd’obtenir différentes tensions de polarisation de la cathode et de relever la caractéristique
(c’est-à-dire le courant i) en fonction de la tension V pour des intensités lumineuses Idifférentes.
Les deux caractéristiques dessinées sur la figure correspondent à deux intensités lumineusesI1 et I2 avec I1 = 2 I2, d’une même source de lumière (la fréquence est la même).
On constate que :
� Les valeurs de saturation du courant i sont
proportionnelles aux intensités lumineuses I1 et I2. Cesvaleurs de saturation correspondent aux cas où tous lesélectrons arrachés à la photocathode sont collectés surl’anode.
� On observe un courant à des différences de potentiels
même négatives V < 0. Ceci correspond au fait que certainsélectrons émis ont assez d’énergie cinétique pour« remonter » le champ électrique qui leur est opposé etpour arriver à l’anode.
� Toutefois, si une différence de potentiel trop négative est
appliquée, au delà de Vstop, plus aucun courant n’est
recueilli. Vstop est appelé « potentiel d’arrêt » et ne dépend
pas de l’intensité de la lumière incidente sur la cathode.
Variation du photocourant en fonction de la tension pour différentes
intensités lumineuses (la fréquence lumineuse étant fixée)
Mise en évidence du potentiel d’arrêt
Le potentiel d'arrêt peut être considéré comme l'expression directe de l'énergie cinétique
maximale des électrons émis par la cathode.
En effet, si nous multiplions la valeur du potentiel d’arrêt par la charge de l’électron, nousobtenons l’énergie cinétique maximale de l’électron arraché à la photocathode ; éjecté de lacathode avec une énergie cinétique de :
Ekmax = e Vstop,
l’électron aura tout juste l’énergie cinétique nécessaire pour remonter le champ électrique
jusqu’à l’anode sans l’atteindre.
L’énergie cinétique des électrons varie de 0 à Ekmax suivant que l’électron a été arraché plus ou
moins profondément dans la matière de la cathode.
� Deuxième loi : l'intensité du courant de saturation (courant maximal) est proportionnelle
à l’intensité lumineuse du faisceau incident.
Si ν ≥ ν0 , l’effet photoélectrique se produit et on constate que :
�l’émission d’électrons est quasi instantanée, même à faible intensité lumineuse ;
�la variation d’intensité lumineuse n’introduit pas de variation de la vitesse des
électrons émis ou photoélectrons (comme Vstop est indépendant de l’intensitélumineuse I), mais bien de leur nombre (comme l’intensité du photocourant iaugmente avec l’intensité lumineuse I).
� Troisième loi : le potentiel d’arrêt est une fonction affine de la fréquence du rayonnement
incident.
On peut également étudier comment varie le potentiel d'arrêt Vstop en fonction de lafréquence de la lumière incidente.
Pour cela, on fait plusieurs courbes de i en fonction de V, chacune à une fréquence donnée,et on détermine Vstop pour chaque fréquence.
Variation du photocourant en fonction de
la tension pour une intensité lumineuse
fixée et différentes fréquences lumineuses
En dessous de la fréquence limite f0, il n’y a pas d’effet photoélectrique .
On constate une augmentation linéaire du potentiel d’arrêt et donc de l’énergie cinétiquemaximale des photoélectrons en fonction de la fréquence.
�la vitesse maximale des photoélectrons
augmente quand la fréquence lumineuse
augmente (comme Vstop est de plus enplus grand lorsque ν augmente)
La représentation du potentiel d’arrêt Vstop en fonction de la fréquence ν pour des plaquesconstituées de métaux différents donne des droites parallèles
3.6.4 Tentative d’explication : échec de la théorie électromagnétique La théorie électromagnétique est insuffisante pour expliquer ces faits.
Elle stipule en effet que :
� L’énergie transportée par l’onde est proportionnelle à son intensité ; l’émission dephotoélectrons devrait être observée pour toute fréquence pourvu que l’intensité soitsuffisante, ce qui est contradictoire avec l’observation de l’existence d’une fréquence seuil.
� Si l’intensité lumineuse est faible, l’énergie transmise aux électrons est faible, et leuramplitude d’oscillation également ; il faudrait qu’un électron reçoive pendant longtemps unefaible énergie avant que l’énergie accumulée soit suffisante pour l’extraire du métal, ce qui estcontradictoire avec le caractère quasi instantané de l’émission.
� Quand on envoie, sur un métal, une onde lumineuse d’intensité croissante, la quantitéd’énergie absorbée croît ; les électrons, recevant une plus grande quantité d’énergie,devraient être émis avec une vitesse croissante.
� Dans la théorie classique, l’énergie de l’onde lumineuse ne dépend pas de sa fréquence ; ceci est contradictoire avec l’augmentation de la vitesse maximale des électrons lorsque la fréquence augmente.
En 1905, Einstein proposa comme hypothèse une théorie corpusculaire de la lumière :
Lors de l’émission et de l’absorption d’un rayonnement de fréquence ν par la matière,l’énergie lumineuse n’est pas répartie uniformément sur le front d’onde, mais bienconcentrée en une série de « grains d’énergie» séparés par du vide.
Ces « grains », ou quanta, de lumière sont appelés photons.
Le photon reste localisé dans l’espace (il n’a pas une extension infinie, comme l’onde).
L’énergie d’un photon est donnée par :
où h = 6.626176.10-34 J.s = 4, 14.10−15 eV·s est la constante introduite par Planck en 1900 dansla théorie du rayonnement du corps noir.
Cette hypothèse permet d’expliquer l’effet photoélectrique.
En effet, si le photon reste localisé, il peut être entièrement absorbé par un électron lors d’uneffet photoélectrique. L’électron aura gagné une énergie E = hν qu’il utilisera pour sortir de lacathode avec une énergie cinétique Ek
max.
3.6.5 Succès de la théorie d’Einstein
Pour pouvoir sortir, l’électron devra encore vaincre un travail d’extraction W : en effet, il fautune énergie minimale pour pouvoir extraire un électron de la surface du métal (où il estsoumis à des forces intermoléculaires) et pour qu’il échappe à la force attractive qui,normalement, retient les électrons dans le milieu.
L’énergie cinétique de l’électron qui s’échappe du métal s’écrit donc
C’est l’équation d’Einstein pour rendre compte de l’effet photoélectrique.
On peut interpréter W de la manière suivante : quand l’électron quitte le métal, il laisse celui-ci chargé positivement et y est rappelé par un champ électrique. Ce dernier est le résultatd’une différence de potentiel, et on peut définir le travail d’extraction comme le travail
nécessaire à l’électron pour vaincre la barrière de potentiel V entre le métal et un point
immédiatement voisin :
où V est le potentiel d’extraction (qui varie d’un métal à l’autre).
L’équation d’Einstein explique les phénomènes incompréhensibles par la physique classique :
- existence d’un seuil photoélectrique : en dessous d’une fréquence limite ν0, il n’y a plus d’effet
photoélectrique pour une cathode d’un matériau donné. En effet, si l’on pose hν0 = W, lorsqueν<ν0, quel que soit le nombre de photons incidents, il ne peut y avoir d’effet photoélectrique,les électrons ne pouvant être arrachés à la matière !
- effet d’immédiateté : il n’y a pas de retard entre l’arrivée de la lumière et l’éjection du
photoélectron. L’énergie E = hν est amenée d’un coup ; elle n’est pas dispersée dans l’espacecomme le prévoit la théorie classique, toute l’énergie lumineuse est concentrée dans lephoton.
- L’énergie cinétique des électrons émis n’augmente pas avec l’intensité lumineuse mais bien
avec la fréquence de la lumière : si vm est la vitesse d’un photoélectron n’ayant pas subi defreinage, son énergie cinétique est :
la vitesse maximale des photoélectrons augmente donc quand la fréquence augmente, maisne dépend pas de l’intensité lumineuse.
Augmenter l’intensité revient à augmenter le nombre de photons, c’est-à-dire à augmenter lecourant photoélectrique. Cela ne revient pas du tout à changer l’énergie hν de chaquephoton, donc ne peut pas changer l’énergie cinétique des électrons émis.
- Il y a une dépendance linéaire entre Vstop et la fréquence ν, ce qui est bien confirmé parl’expérience de Millikan.
3.6.6 Vérification expérimentale de la théorie d’Einstein
Millikan vérifia, en 1916, l’équation d’Einstein de la manière suivante :
Il envoya sur un même métal un rayonnement de fréquence décroissante, jusqu’à ce qu’iln’observe plus d’électrons arrachés (l’intensité du courant dans le circuit relié à la plaque estnul). A ce moment, ν= ν0 pour le métal considéré.
En traçant un graphique de Ek en fonction de ν, il obtient une droite dont la pente égale à h et
qui coupe l’axe des Ek en W. L’expérience répétée avec d’autres métaux donne des droites
parallèles.
En 1916, R.Millikan publie une étude très détaillée de l'émission photoélectrique , qui établitque la constante h dans l'équation d'Einstein est bien égale à la constante de Planckintroduite pour l'étude du corps noir (la valeur obtenue expérimentalement était h = 6.56 ±0.04.1-34 J.s).
Il est instructif de voir le jugement de Millikan sur ses résultats, obtenus après 10 annéesd'efforts expérimentaux :
" I spent ten years of my life testing the 1905 équation of Einstein's, and contrary to ail rny
expectations, I was compelled in 1915 to assert its unambiguous expérimental vérification in
spite of its unreasonableness, since it seemed to violate everything that we knew about the
interference of light. "
Expérience de Millikan (1916)
La pente donne h/e . Où h est la constante de Planck = 6,626 x 10-34 J.s
Enfin, en 1929, E. Lawrence et J. Beams montrent que l'intervalle de temps séparantl'illumination de la photoémission est inférieur à 10-9s.
En tout, trois prix Nobel ont été attribués pour des travaux reliés à l'étude de l'effet
photoélectrique : Lenard en 1905, Einstein en 1921 et Millikan en 1923.
En 1905, Albert Einstein (1879-1955) publie un article danslequel il montre que la lumière se comporte comme si elleétait constituée de grains d’énergie indépendants (lesquanta).
Contrairement à Planck, qui ne faisait porter laquantification que sur les échanges d’énergie entre le
rayonnement et la matière, Einstein donne une structure
discrète (corpusculaire) à la lumière elle-même.
Néanmoins, l'énergie de ces nouveaux « quanta » (paquets
indivisibles d’énergie lumineuse) ou « photons » s'exprimenécessairement en fonction de la fréquence de l'onde
associée.
Il applique cette théorie à la description de l’effet
photoélectrique découvert par Heinrich Hertz (1857-1894)en 1887. Cette description vaudra à Einstein le Prix Nobel
de Physique.
Ce double aspect corpusculaire et ondulatoire de la lumière, entrevu par Newton, va êtreétendu, par Louis de Broglie, à toute particule matérielle (1924) et constitue un desfondements de la Mécanique Quantique qui révolutionne la Physique décrivant le mondemicroscopique.
Ainsi, la nature de la lumière, phénomène d'exception, après avoir été au cœur de
nombreuses recherches scientifiques constitue encore la pierre angulaire de la construction
des théories relativistes et quantiques de la Physique moderne.
La lumière est pour nous aujourd’hui une forme particulière d’énergie. Elle se manifestetantôt comme une onde (aspect ondulatoire), tantôt sous la forme d’un flot de particules
élémentaires appelées quanta ou encore photons (aspect corpusculaire). On parle duprincipe de dualité onde-corpuscule.
3.7 La double nature de la lumière
Illustration de la dualité onde/corpuscule :
ce cylindre est « à la fois » carré et circulaire…
ou ni l'un ni l'autre.
3.7.1 Aspect corpusculaire de la lumière
À une onde électromagnétique harmonique de fréquence f donnée correspondent desphotons d’énergie E fixée par la relation de de Broglie :
où h est une constante fondamentale de la physique, appelée constante de Planck. Elle a lesmêmes unités qu’un moment angulaire (Joule.seconde). Elle vaut :
L’énergie s’exprime habituellement en joules. Mais le Joule n’est pas une unité appropriéepour exprimer l’énergie des photons de lumière visible. On utilise plutôt l’électron-volt (eV).La correspondance se fait au travers de l’équivalence :
Par exemple, pour une onde de longueur d’onde λ=450 nm (lumière de couleur bleue), ontrouve une fréquence f = 6,66 . 1014 Hz et donc dans chaque photon une énergie E = 4,414 .10-19J=2,76eV. De la même manière, une onde de longueur d’onde λ=750 nm (lumière decouleur rouge), on trouve une fréquence f=3,99.1014 Hz et donc dans chaque photon uneénergie E=2,65.10-19J=1,66eV. Un photon bleu est donc plus énergétique qu’un photon rouge.
L’énergie des photons augmente avec la fréquence de l’onde électromagnétique. Des photons
de haute énergie peuvent avoir des effets néfastes sur l’organisme.
.E h f=
346,626.10 .h J s−
=
191 1,6.10eV J−
=
Grâce à l’hypothèse de la quantification de la lumière effectuée par Albert Einstein, la lumièreest maintenant considérée comme étant un faisceau d’onde-particules nommés « photon » sedéplaçant chacun à la vitesse de la lumière c et transportant chacun une quantité d’énergieunique quantifiée E qui est égale à la fréquence f du photon multipliée par le quantumd’énergie fondamentale h qui est la constante de Planck :
Energie des photons « optiques »
Name Energy Range(eV) Wavelength Range (nm)
Infrared less than 1.6 greater than 760
Visible Light 1.6 - 3.1 760 - 400
Red 1.6-2.0 760-610
Orange 2.0-2.1 610-590
Yellow 2.1-2.3 590-540
Green 2.3-2.6 540-480
Blue 2.6-2.8 480-450
Violet 2.8-3.1 450-400
Ultraviolet greater than 3.1 less than 400
UV-A 3.1-3.9 400-320
UV-B 3.9-4.3 320-290
UV-C 4.3-6.5 290-180
3.8 Double nature de la matière
4.1 Principes généraux de la mécanique quantique
Pendant les années 1924 à 1927, le développement de la mécanique quantique permet dedécrire de manière précise le comportement des électrons des atomes.
4 L’atome en mécanique quantique
Fondements de la mécanique quantique
4.2 L’atome d’hydrogène : les orbitales électroniques
L’électron occupe une orbitale atomique en interaction avec le noyau via la force
électromagnétique, tandis que les nucléons sont maintenus ensemble au sein du noyau par laliaison nucléaire, qui est une manifestation de l'interaction nucléaire forte.
Le nuage électronique est stratifié en niveauxd'énergie quantifiés autour du noyau définissant descouches et des sous-couches électroniques.
Les propriétés chimiques d’un atome sont déterminées par la configuration électronique del'atome, qui dépend directement du numéro atomique.
Orbitale 1s
a0
Orbitales s
Formes des autres orbitales
4.3 Atomes hydrogènoïdes (à un seul électron)
4.4 Atomes à plusieurs électrons
4.4 Structure du tableau périodique des éléments, configuration électronique des éléments
4.5 Principales familles
Jeu sur les modèles de l’atome
Chronologie des découvertes
4.6 Les modèles atomiques, résumé
Une moisson de prix Nobels
• Découverte de la radioactivité et isolement de deux éléments radioactifs : le radium et le polonium. (1903)
• Découverte du neutron. (1935)
• Réactions nucléaires avec des neutrons lents (1938)
• Principe d'exclusion selon lequel deux particules de spin demi entier (fermions) ne peuvent être dans le même état. (1945)
• Prédiction de l’existence des mésons. (1949)
• Transmutations nucléaires de noyaux lourds provoquées par bombardement avec des particules accélérées à l'aide d'un générateur de haute tension électrostatique (1951)
• Théorie du noyau atomique. Modèle du noyau en couches. (1963)
• Modèle collectif du noyau atomique, perfectionnement des modèles en couche et de la goutte liquide. (1975)
5 Peut-on « voir » et manipuler les atomes ?Si l'hypothèse atomique a fini par triompher des résistances par la mise en évidence de sesconséquences indirectes (mouvement brownien, diffusion, chimie,...), force est de dire quel'atome semblait inaccessible à l'observation.
Aujourd'hui, ce n'est plus vrai, mais tout d'abord il faut s'entendre sur l'expression « voir les
atomes ». Il n'est pas question de les voir directement, le rayonnement visible étant de longueur
d'onde trop grande pour être optiquement perturbé par les atomes — tout comme une noix decoco ne peut perturber la progression d'un tsunami.
Il faut donc utiliser d'autres moyens : la microscopie électronique à haute résolution et lamicroscopie à effet tunnel nous les fournissent.
Les microscopes électronique à haute résolution
utilisent des faisceaux d'électrons relativistes dont lalongueur d'onde de de Broglie est de l'ordre dupicomètre — 10-12 m — soit notablement inférieure
aux dimensions atomiques, ce qui permet d'utiliser
ces faisceaux sur le mode de l'optique géométrique
(focalisation) pour « voir » les atomes.
Sur le « cliché » ci-dessous, qui résulte en fait d'unereconstitution à partir des données électriquesobtenues par le microscope, la résolution est de
l'ordre de 0,1 nm !
Par ailleurs, en 1981, Gerd Binnig et Heinrich Rohrer des laboratoires IBM inventèrent lamicroscopie à effet tunnel, invention pour laquelle ils reçurent le prix Nobel de physique 1986.
Le principe en est relativement simple — pour la réalisation, c'est autre chose : une pointe
nanométrique se déplace sur l'échantillon à observer, permettant ainsi de reconstituer le «paysage » atomique grâce aux informations recueillies par effet tunnel.
Il s'agit, pour simplifier, d'un palpeur (une pointe ou sonde)qui suit la surface de l'objet. La sonde balaie (scanne) la
surface à représenter. Un ordinateur ajuste (via un systèmed'asservissement) en temps réel la hauteur de la pointe
pour maintenir un courant constant (courant tunnel) etenregistre cette hauteur qui permet de reconstituer lasurface.
Pour cela, avec un système de positionnement de grande précision (réalisé à l'aide depiézoélectriques), on place une pointe conductrice en face de la surface à étudier et l'on mesure
le courant résultant du passage d'électrons entre la pointe et la surface par effet tunnel (les
électrons libres du métal sortent un peu de la surface, si l'on se met très près sans pour autant latoucher, on peut enregistrer un courant électrique).
Dans la plupart des cas, ce courant dépend très rapidement (exponentiellement) de la distance
séparant la pointe de la surface, avec une distance caractéristique de quelques dixièmes de
nanomètres.
Ainsi, on fait bouger la pointe au-dessus de l'échantillon avec un mouvement de balayage et on
ajuste la hauteur de celle-ci de manière à conserver une intensité du courant tunnel constante, aumoyen d'une boucle de rétroaction. On peut alors déterminer le profil de la surface avec uneprécision inférieure aux distances interatomiques.
Et voilà ce qui put être « vu » de cette manière — bien sûr, les couleurs sont artificielles et n'ontque pour fonction de distinguer et enjoliver les objets.
On put faire mieux que « voir » les atomes ! Non seulement la pointe nanométrique permettait de les palper, mais on pouvait en plus les manipuler un à un grâce à elle.
Ainsi le physicien Donald Eigler, toujours des laboratoires IBM, réussit le 28 septembre 1989 àécrire le sigle IBM à l'aide de 35 atomes de xénon sur une surface de nickel.
Il écrivit aussi l'idéogramme japonais signifiant atome à l'aide d'atomes de fer sur un substratde cuivre.
On réalisa enfin des « corrals quantiques » — par exemple ci-dessous avec 48 atomes de fer
disposés le long d'un cercle sur un substrat de cuivre.
Les vaguelettes observées à l'intérieur du cercle mettent en évidence le caractère
ondulatoire des électrons métalliques délocalisés.
6 Le noyau atomiqueLes nucléons se répartissent comme les électrons en couches nucléaires, bien qu'un modèleapproché assez commode popularise la structure nucléaire d'après le modèle de la goutte
liquide.
Représentation d’une fission dans le modèle de la goutte liquide
6.1 Trois forces en action dans le noyau et leur hiérarchie
Trois types de forces entrent en compétition dans le noyau. La principale est la force ou
interaction nucléaire ou forte qui assure la cohésion des noyaux car est attractive. Elle estresponsable aussi de la radioactivité alpha. La seconde, appelée électromagnétique, estrépulsive mais moins intense. La troisième force est appelée « interaction faible ». Ni attractive,ni répulsive, elle agit à l’intérieur même des nucléons. Elle transforme une espèce de nucléon(proton ou neutron) dans l’autre espèce et vice-versa, provoquant la radioactivité bêta. Lastabilité ou l'instabilité d'un noyau sont le résultat de la compétition entre ces trois interactions.
La cohésion de la matière nucléaire est assuréepar une attraction extrêmement intense quil'emporte sur la répulsion due à la chargeélectrique des protons. Cette « interaction
forte » est à courte portée car un proton ou unneutron ne ressentent pas d'effets à distanced'un noyau. L'attraction se fait fortementsentir dès que le nucléon (ici un neutron) entreen contact avec le noyau qui est capturé. Cette« colle nucléaire » a été représentée sur lafigure enrobant nucléons et les noyaux.
Le noyau est pratiquement incompressible. En son sein, protons et neutrons sont en contactcomme les molécules d'un liquide.
Ils tiennent ensemble sous l'effet d'une interaction de contact, appelée « nucléaire » ou forte, caril s'agit de la force dominante. Bien qu'extrêmement intense, l'interaction nucléaire est restéelongtemps insoupçonnée, parce qu'elle est à très courte portée. Elle le serait encore, sans ladécouverte en 1896 de la radioactivité. Cette courte portée se manifeste par le fait que desneutrons peuvent passer au voisinage immédiat d'un noyau sans être captés.
Des forces de répulsion électromagnétiques s'exercent dans le noyau entre charges électriquesde même signe. Ces charges sont portées par les protons. Les protons étant pratiquement aucontact, il faut que les forces nucléaires attractives soient très intenses pour vaincre la répulsionde ces charges confinées dans une minuscule sphère dont le rayon est de quelques millionièmesde milliardième de mètre.
Les caractéristiques des forces électromagnétique et forte expliquent la stabilité des petits
noyaux par rapport aux grands :
� Dans un noyau de grande taille, un nouveau proton n’est attiré que par un à trois autres
nucléons en moyenne, alors qu’il subit la force électrostatique répulsive de tous les autresprotons du noyau
� Les neutrons, en ne subissant pas les forces répulsives du fait de leur neutralité de charge,sont ainsi plus simples à incorporer dans un nouveau noyau
Dans la classification périodique des éléments, il existe aux alentours de l’élément Fer une
évolution de la possibilité de fusionner, à progressivement celle de fissionner, c’est que l’équilibreentre les forces nucléaires et électrostatiques change également :
� Avant le Fer / Nickel : il y a peu de protons dans le noyau et ils se trouvent donc à distanceproche les uns des autres, sous l’influence majoritaire de la force nucléaire qui supplante laforce électrostatique
� Après le Fer / Nickel : les protons sont plus éloignés les uns des autres. Si les nucléonsproches sont toujours dominés par l’interaction forte avec leurs voisins, ils subissentégalement une répulsion importante des protons les plus éloignés. Si cette répulsionprédomine, une désintégration ALPHA peut éventuellement survenir
La troisième force présente dans le noyau est une force discrète. Elle joue pourtant un rôlefondamental dans l'univers. Sans la « force faible », le soleil s'arrêterait de briller parce qu'il nepourrait pas fusionner l'hydrogène en deutérium. En rendant possible, si le bilan énergétique lepermet, de transformer un proton en neutron ou inversement, la force faible dépeuple lescoteaux de la vallée de stabilité et rassemble tous les noyaux au fond de la vallée.
L'exemple du tritium, le plus simple des
noyaux radioactifs, montre comment la
nature à recours à transformation d'un
neutron en proton, due aux « forces faibles »
pour modifier le rapport entre les deux
espèces de nucléons. Le tritium, pourrait
expulser un de ses deux neutrons mais cette
expulsion ne se produit pas spontanément car
elle coûte de l'énergie. Par contre, la
désintégration d'un neutron en proton
accompagné d'un électron bêta et d'un
antineutrino, libère un peu d'énergie Cela
suffit pour que le tritium soit radioactif. C'est
la force faible qui rend le tritium instable.
6.2 Stabilité et instabilité des noyaux
La cohésion du noyau est due à l’existence d’une interaction forte, attractive qui unit l’ensembledes nucléons et qui prédomine devant l’interaction électrique (répulsion entre les protons).
L’interaction forte est intense mais de très courte portée (de l’ordre du femtomètre : 10 – 15 m,soit un milliardième de micromètre.)
Il y a antagonisme entre l’interaction forte et la répulsion électrique des protons.
La stabilité des noyaux résulte de la compétition entre l’interaction forte, responsable del’attraction des nucléons et l’interaction électromagnétique responsable de la répulsion entre lesprotons.
Dans certains cas la cohésion n’est pas suffisante, on dit que les noyaux sont instables.
La stabilité des noyaux obéit aussi aux lois de la mécanique quantique : un noyau possédant trop
de particules de même type est instable.
Dans les petits noyaux, il y a une tendance à la symétrie : le nombre de protons est égal au
nombre de neutrons pour les noyaux stables.
�Un noyau est instable s’il possède trop de protons par rapport au nombre de neutrons.�Un noyau est instable s’il possède trop de neutrons par rapport au nombre de protons.�Un noyau est instable s’il possède trop de protons et trop de neutrons.
Ils se désintègrent spontanément, on dit qu’ils sont radioactifs. Ce sont des radionucléides.
6.3 Diagramme de stabilité des nucléides
Isotopes d’un atome
Commentaires :
Pour les noyaux stables :
�L’ensemble des noyaux stables (en rouge) forme sur la représentation graphique la vallée de
stabilité.
�Les noyaux légers stables se répartissent au voisinage de la première bissectrice (N = Z
autant de protons que de neutrons).
�Les noyaux lourds stables s’écartent de la bissectrice. Ils ont plus de neutrons que de
protons.
Pour les noyaux instables :
� En bout de la vallée de stabilité, ils se désintègrent en émettant des particules alpha : ilssont radioactifs alpha.
�Au-dessus de la vallée de stabilité, ils sont émetteur β -.
�Au-dessous du domaine de stabilité, ils sont émetteurs β +.
Radioactivité : animation généralehttp://launay.elise.free.fr/radioactivite_anim.swf
En 1999, on a mis en évidence tous les éléments depuis Z = 1 jusqu'à Z = 112 (uneexpérience récente prétend avoir mis en évidence les éléments Z = 114, Z = 116 et Z = 118).
Un élément donné possède en général au moins un isotope stable, et plusieurs isotopes
radioactifs. Par exemple, on connaît 15 isotopes de l'oxygène (de A = 12 à A = 26), maisseuls 16O,17O et 18O sont stables.
Tous les éléments de Z = 1 à Z = 83 (sauf Z = 43 et Z = 61) possèdent au moins un isotope
stable, et donc sont présents sur la Terre.
Ceux de Z = 84 à Z = 92 sont radioactifs, mais encore présents sur la Terre.
Les éléments avec Z > 92 n'existent pas naturellement, mais ils ont été fabriqués et étudiés
par l'homme.
Pour résumer la situation, 280 nucléides sur les 3 000 connus sont stables. La radioactivitéest donc un phénomène courant. Les physiciens ont analysé les modes de désintégration lesplus fréquents.
La masse du noyau est reliée à son énergieinterne par la relation d'Einstein. Elledétermine sa stabilité. L'élément le plus
stable d'une série de noyaux comportant le
même nombre de nucléons est celui dont la
masse est la plus petite.
La famille de noyaux comportant 127nucléons montre la relation entre masse etstabilité.
Dans la famille des noyaux à 127 nucléons, seul le noyau d’iode-127 est stable. Si l’onreprésente les énergies de masse (mc2) des noyaux de cette famille, la courbe des masses a
l'allure d'une vallée. Le nombre de protons augmente de gauche à droite, de 49 (indium) à 57(lanthane), alors que celui des neutrons diminue de 78 à 70. L’énergie de l’iode-127 étant prisecomme 0, les différences d’énergies sont exprimées en millions d’électronvolts. Les noyaux surle flanc gauche de la vallée, excédentaires en neutrons retrouvent la stabilité par une suite dedésintégrations bêta-moins, ceux du flanc droit (excédentaires en protons) par une suite dedésintégrations bêta-plus.
Le début de la vallée de stabilité
Carte des nucléides en 1940
Carte montrant les nucléides qui étaient connus avant 1940. Ces noyaux stables ou quasi-stablessuivent une ligne qui correspond au fond de la vallée de stabilité. Cette ligne se termine avecl'uranium-238 composé de 92 protons et 146 neutrons, le noyau naturel le plus lourd, lui-mêmeradioactif. La zone en grisé correspond aux nucléides connus aujourd'hui et qui sont beaucoupplus nombreux.
Carte des nucléides (2000)
Les "nucléides" connus aujourd'hui, colorés en fonction de l'année de découverte. Les noyauxinstables sont situés de part et d'autre de la ligne de stabilité ainsi que dans son prolongement.Dans ce prolongement (à droite de la carte) on trouve les noyaux « transuraniens » plus lourdsque l'uranium (92 protons).
Désintégrations successives d’un atome instable
Une désintégration en entraîne souvent d’autres : La transition vers un état stable ne se fait querarement à la première désintégration. Une suite de quelques désintégrations s’enchaînesouvent, transitant par plusieurs isotopes, voire plusieurs éléments différents.
Exemple : le Radium 226 passe par 9 étapes avant de devenir du plomb 206 dont l’état eststable.