Magazine scientifique du Collège Jean-de-Brébeuf
Transcript of Magazine scientifique du Collège Jean-de-Brébeuf
Magazine scientifique du CollègeJean-de-Brébeuf
Hiver 2021
No 6
Perceptum
Collège Jean-de-Brébeuf
3200, chemin de la Côte-Sainte-Catherine
Montréal, QC
No 6, Hiver 2021
Deux numéros de Perceptum sont publiés chaque année, sur papier et en ligne
Dépôt légal : Bibliothèque et Archives Canada
ISSN 2562-6345 (Imprimé)
ISSN 2562-6051 (En ligne)
i
TABLE DES MATIÈRES
Bienvenue chez perceptum! .............................................................................................. 1
Remerciements ......................................................................................................................... 2
MATHÉMATIQUES ....................................................................................................................... 4
Le paradoxe apparent de la trompette de Torricelli : une aire infinie pour un volume fini? .. 4
TECHNOLOGIE .............................................................................................................................. 8
Un petit guide pour votre prochain achat d’ordinateur ........................................................... 8
PHYSIQUE ................................................................................................................................... 10
Le système dynamique chaotique du double pendule ........................................................... 10
Le mouvement d’un avion correspond-il aux équations de physique en aéronautique? .... 20
CHIMIE ........................................................................................................................................ 27
L’effet de la concentration sur la masse déposée durant l’électrodéposition ...................... 27
Effet de la température sur la cinétique de la réaction d’oxydation de l’ion iodure et du
persulfate .................................................................................................................................. 37
Bibliographie ........................................................................................................................ 43
1
Bienvenue chez perceptum!
Chères lectrices et chers lecteurs,
Vous tenez entre vos mains la première édition de Perceptum de l’année 2021, ou peut-être que,
selon la tendance générale de nos études à distance, vous la lisez sur votre écran d’ordinateur. Quel
que soit votre média de prédilection, nous tenons à vous remercier pour l’intérêt que vous portez
à l’endroit de notre humble publication semestrielle.
En cette période de faible motivation et d’incertitudes abondantes, la productivité sociale et
intellectuelle n’est pas une tâche facile. Au contraire, l’étudiant cherchant à se parfaire se trouve
confronté à mille difficultés et les « pourquoi » honnêtes qui circulent dans son esprit cèdent
souvent aux « combien de mots » en regardant l’écran.
Le fardeau de la productivité ne pèse pas uniquement sur Perceptum : de nombreux comités et
associations étudiantes en subissent le contrecoup malgré leurs plus beaux efforts. Aussi voulons-
nous célébrer la résilience de ceux qui ont contribué à la communauté scientifique du Collège par
leurs recherches perspicaces et leurs expériences inédites.
Cependant, les recherches académiques de nos rédacteurs, parmi lesquelles se trouvent de
nombreux mémoires et recherches de l’IB (pour les curieux en première année), ne sont qu’un
échantillon minime du plein potentiel de notre communauté, comme le témoignent les réalisations
audiovisuelles de notre concours Flash-Science en février. Il faut donc encourager la curiosité
étudiante, se soutenir mutuellement et applaudir les efforts de nos pairs. Ainsi ce texte est-il à la
fois un appel laudatif et suppliant puisque vos comités ont besoin de vous. Vos pairs ont besoin de
vous. Notre communauté a besoin de vous, et de vos idées, et de vos questions, puisque ce n’est
qu’en se questionnant que nous puissions changer le monde.
Louis Friedland-Yust, éditeur en chef de Perceptum
2
Remerciements
Nous tenons à remercier…
Nos membres du comité exécutif 2020-2021
Louis Friedland-Yust –
Éditeur en chef
Selma Ouali –
Trésorière
Sheila Razavi –
Responsable des activités
Rafidah Chowdhury –
Correctrice et adjointe aux
activités
Meriem Hamel –
Éditrice des médias
Rime Diany –
Éditrice des médias
Inès El Adib –
Correctrice et adjointe à
l’édition
Anna Voia –
Correctrice et adjointe au trésor
Jamie Wallis –
Illustratrice
Nos professeurs-superviseurs
Dorin-Narcis Ghisovan Louis-Philippe Précourt
Nos auteurs pour l’édition d’Hiver 2021
Augustin Davignon
Rui Ying Sun
Quynh Nga Jessica Nguyen
Meriem Hamel
Yifang Fang
Laure Salmon
Équipe de professeurs pour la correction linguistique
Nathalie Loignon Mathieu Bélisle Nicolas Bony
3
Équipe de professeurs pour la correction scientifique
Louise Boisvert
Granger Piché
Emma Merel--Léorat
Stéphane Houle
Comité fondateur
Justin Lessard Wacjer
Weiting Xiong
Bogdan Pechounov
Commanditaires
AGEB
Coopsco Brébeuf
Programme des sciences de la nature (CJDB)
Contact
Courriel : [email protected]
Facebook : @perceptumbrebeuf
Instagram : @perceptumbrebeuf
Site Web : www.journalperceptum.wordpress.com
Baladodiffusion Dissertum : www.anchor.fm/dissertum
4
MATHÉMATIQUES
Le paradoxe apparent de la trompette de Torricelli :
une aire infinie pour un volume fini?
Par : Meriem Hamel
Révision scientifique : Emma Merel--Léorat
Révision linguistique : Nicolas Bony
Introduction
En 1641, Evangelista Torricelli
découvre une figure mathématique qui
s’étend à l’infini sans pour autant être grande
à l’infini (1). Paradoxal, non? De là est née la
trompette de Torricelli, autrement appelée
trompette de Gabriel en référence à
l’archange Gabriel. Celle-ci correspond à une
fonction d’équation 𝑓(𝑥) =1
𝑥 effectuant une
rotation autour de l’axe des abscisses et
s’étalant dans l’intervalle [1, +∞[.
GRAPHIQUE I : Fonction inverse de base allant de 1
à l’infini
GRAPHIQUE II : La même fonction en rotation
autour de l’axe des abscisses
Ce solide de révolution se distingue
par le paradoxe apparent qui lui est relié et
qui est contre-intuitif : il a un volume fini,
tandis que son aire est infinie. Le paradoxe
apparent est souvent représenté à travers
l’exemple connu de la peinture, qui va
comme suit : « [puisque] le volume de la
trompette est fini, la surface intérieure
pourrait être peinte en versant une quantité
de peinture dans la trompette puis en la
vidant. » (2)
f(x) = 1/x
5
Construction du solide
GRAPHIQUES III, IV & V : Différentes
visualisations de la trompette en 3D (3)
Nous ne pouvons voir comment la
trompette s’étend vers l’infini, mais nous
sommes en mesure de visualiser la
diminution constante de son rayon. Lorsque
ce solide de révolution est divisé en une
infinité de petits morceaux ayant une
épaisseur égale, chaque morceau devient un
disque.
GRAPHIQUE VI : La trompette divisée en une
multitude de disques
Calcul du volume
La formule de volume d’un disque est
𝑉 = 𝜋𝑟2ℎ . La trompette de Torricelli
correspond à la fonction 𝑓(𝑥) =1
𝑥 et s’étale
dans l’intervalle [1, +∞]. À partir de cela,
calculons le volume de l’entièreté de la
trompette.
𝑉 = ∫ 𝜋𝑓2(𝑥) 𝑑𝑥𝑏
𝑎
𝑉 = ∫ 𝜋 (1
𝑥)2
𝑑𝑥+∞
1
= 𝜋∫1
𝑥2𝑑𝑥
+∞
1
𝑉 = 𝜋 ∫ 𝑥−2 𝑑𝑥+∞
1
𝑉 = 𝜋 ∗𝑥−1
−1 =
−𝜋
𝑥
6
𝑉 = [−𝜋
𝑥]1
+∞
Évaluer l’intégrale ici nécessitera une
étape additionnelle. Étant donné que l’une
des deux bornes est l’infini (+∞), l’intégrale
est dite impropre; nous devons donc poser
une limite. L'intégrale de la fonction sur [1,
+∞] sera donc la limite de l'intégrale de la
fonction de 1 à a lorsque a tend vers +∞.
𝑉 = ∫ 𝜋 (1
𝑥)2
𝑑𝑥+∞
1
= lim𝑎→+∞
−𝜋
𝑥|1
𝑎
=−𝜋
𝑎−
−𝜋
1= 𝜋
𝑉 = lim𝑎→+∞
−𝜋
𝑥|1
𝑎
= 𝜋
Le volume de la trompette est donc fini et
vaut π.
Calcul d’aire
GRAPHIQUE VII : Identification de la hauteur pour
le calcul de l’aire
Il est également connu que la formule
d’aire latérale est de 𝐴 = 2𝜋𝑟ℎ . Le rayon
sera le même que dans la formule pour le
volume, donc 𝑓(𝑥) . La hauteur, elle,
équivaut à la distance qui relie deux points (A
et C) d’une courbe (la courbe illustrée ne
correspond pas à la trompette, c’est une
courbe quelconque qui me sert à expliquer
mon raisonnement). En prenant un intervalle
infinitésimal de la fonction, nous observons
que la mesure recherchée s’apparente de plus
en plus à l’hypoténuse d’un triangle qui serait
formé par dx et dy (voir illustration). Ainsi, la
hauteur nécessaire au calcul d’aire se calcule
selon le théorème de Pythagore: √𝑑𝑥2 + 𝑑𝑦2.
Ce résultat, bien qu’approximatif, se
rapproche énormément de la réalité.
Puisque la valeur de 𝑑𝑦 est inconnue,
réarrangeons l’équation de façon à pouvoir
l’utiliser. Ce que l’on peut observer, c’est que
l’hypoténuse du triangle est parallèle à la
dérivée de f(x) en B (point rouge). Puisque
𝑓′(𝑥) =𝑑𝑦
𝑑𝑥, en isolant, 𝑑𝑦 = 𝑓′(𝑥)𝑑𝑥 . En
remplaçant le 𝑑𝑦 dans l’équation pour la
hauteur, elle devient :
√(𝑑𝑥)2 + (𝑓′(𝑥)𝑑𝑥)2 =
√1 + (𝑓′(𝑥))2𝑑𝑥.
L’équation finale pour l’aire d’un
solide de révolution est donc :
𝐴 = ∫ 2𝜋𝑓(𝑥)√1 + (𝑓′(𝑥))2𝑑𝑥𝑏
𝑎
En remplaçant les variables avec les
données de la trompette de Torricelli:
7
𝐴 = ∫ 2𝜋1
𝑥√1 + ((
1
𝑥)′
)
2
𝑑𝑥+∞
1
𝐴 = 2𝜋 ∫1
𝑥√1 + (
−1
𝑥2)2
𝑑𝑥+∞
1
Cette portion de l’équation sera toujours
supérieure à 1, peu importe la valeur du x,
puisqu’elle est au carré et qu’elle est
additionnée à 1. Puisque nous voulons
seulement savoir si cette intégrale impropre
diverge ou converge, il n’est pas nécessaire
d’intégrer cette portion de l’équation. Nous
pouvons continuer en comparant l’intégrale
A avec une intégrale plus simple.
𝐴 ≥ 2𝜋 ∫1
𝑥𝑑𝑥
+∞
1
𝐴 ≥ 2𝜋 ∗ 𝑙𝑛|𝑥|
𝐴 ≥ lim𝑎→∞
2𝜋 ∗ 𝑙𝑛|𝑥||1
𝑎
= 2𝜋ln (𝑎) − 2𝜋ln (1) = ∞
𝐴 ≥ lim𝑎→∞
2𝜋ln (𝑥)|1
𝑎
= ∞
L’aire est égale à l’infini.
Conclusion
Il est contre-intuitif d’avoir un
volume fini pour un solide d’aire infinie.
Cependant, les calculs de volume et d’aire
effectués ci-haut le prouvent bel et bien :
l’intégrale du volume converge, donc résulte
en une valeur précise (𝜋 ici), et celle de l’aire
diverge, donc est égale à l’infini (∞).
En revenant à l’exemple de la
peinture, nous comprenons qu’à un certain
point, le diamètre devient trop petit pour
pouvoir contenir de la peinture, tandis que le
tube s’allonge incessamment. Plus nous
progressons sur l’axe des abscisses, plus le
diamètre de la trompette s’approche de
l’infiniment petit. Cela explique donc le
paradoxe apparent de la trompette de Gabriel.
Bien sûr, un tel objet ne pourrait exister dans
le monde réel.
À la lumière de cela, il serait
intéressant d’utiliser la même démarche,
donc de calculer le volume et l’aire par la
méthode des disques, pour d’autres fonctions
suivant la forme 𝑓(𝑥) =1
𝑥𝑛 . Il serait aussi
intéressant d’explorer diverses fonctions pour
savoir s’il se présente d’autres cas similaires
où des conclusions mathématiques semblent
paradoxales, mais ne le sont pas réellement.
8
TECHNOLOGIE Un petit guide pour votre prochain achat
d’ordinateur
Par : Rui Ying Sun & Yifang Fang
Vous êtes-vous déjà questionné sur le
rôle qu’occupent les différents composants
d’un ordinateur? Avez-vous déjà eu de la
difficulté à choisir une configuration idéale?
La meilleure configuration pour vous n’a pas
nécessairement besoin d’être la plus coûteuse.
Cependant, il n’est pas faux que, dans le
monde des technologies, plus un appareil est
de bonne qualité, plus il est cher. Ainsi, si
vous vous payez un Chromebook à 200$, ne
vous attendez pas à la performance d’un
appareil de 1000$. Cependant, bien que cela
soit vrai, il se peut que certains
manufacturiers vendent leur appareil plus
cher que ce qu’il vaut. Pour que vous ne
fassiez pas des achats qui ne vont point vous
bénéficier, nous allons brièvement expliquer,
dans le texte ci-dessous, le rôle de différents
composants d’ordinateur. Nous allons
séparer les paragraphes par composant: le
processeur (CPU : Central Processing Unit),
la carte graphique (GPU : Graphics
Processing Unit), la mémoire vive (RAM :
Random Access Memory), le disque SSD
(Solid State Drive) et les disques durs (HDD :
Hard Disk Drive). Il est important de noter
qu’il s’agit ici seulement d’une explication
brève des différents composants de
l’ordinateur et que chacun a des besoins
différents en informatique.
Commençons par le CPU. Le
processeur est ce que nous utilisons pour faire
les tâches telles qu’écrire dans un document
Word, faire le multitraitement, etc. Le CPU
est comme notre cerveau. Il décode et il
exécute les fonctions encodées. Plus un CPU
a de cœurs, plus il sera efficace en
multitraitement (1). Nous pouvons voir, dans
les configurations des ordinateurs, le rapport
« _ cores _ threads ». Ainsi, plus un CPU a de
cœurs et de « threads », plus il est rapide et
plus il est efficace en exécutant plusieurs
tâches en même temps (2). C’est aussi
pourquoi il n’est pas recommandé d’acheter
un i3 d’Intel comme processeur dans un
ordinateur portable : beaucoup de i3 n’ont
très souvent que 2 cœurs comparés aux i7 qui
ont 4 à 6 cœurs (3). Ainsi, pour une personne
qui fait beaucoup de travail de bureau, la
configuration du CPU est très importante.
Cependant, il faut aussi bien mesurer la
quantité de travail que vous voulez faire avec
votre ordinateur parce que vous perdrez de
l’argent si vous en achetez avec plus de cœurs
et de « threads » que vous allez réellement
utiliser. Pour expliquer ceci, imaginez le
processeur comme le cerveau de
l’ordinateur : les cœurs sont les lobes et les
« threads » sont comme les neurones.
Lorsque vous faites votre achat, il est aussi
recommandé que vous faites une recherche
9
pour comparer la vitesse d’un CPU avec un
autre pour voir si celui que vous voulez
acheter vaut réellement son prix.
Pour ce qui est du GPU, plus votre
travail comprend des éléments graphiques et
en 3D, plus vous aurez besoin d’un bon GPU.
Un bon GPU est aussi nécessaire pour un
joueur de jeux vidéo. Avec un meilleur GPU,
la vitesse de réaction est plus grande et ce que
vous voyez est plus clair, ce qui est important
pour l’expérience. Cependant, il est à noter
que les ordinateurs portables qui ont une carte
graphique sont plus puissants (4) et, étant
donné qu’ils gardent une vitesse de réaction
rapide, les ventilateurs de ces ordinateurs
tournent plus vite, ce qui fait plus de bruit.
Pour la même raison, les ordinateurs ayant
une carte graphique consomment aussi plus
d’énergie (5), ce qui fait en sorte que votre
batterie s’épuise plus rapidement. Ainsi, si
vous ne faites pas du travail qui requiert
beaucoup de graphismes, il n’est pas
nécessaire d’acheter un ordinateur avec une
carte graphique.
La mémoire vive, comme son nom
l’indique, est la mémoire qui est utilisée
momentanément lorsque nous ouvrons une
application, comme Google Chrome, et qui
arrête de fonctionner lorsque nous fermons
l’application (6). Ainsi, plus vous ouvrez des
applications, plus votre ordinateur utilise de
la mémoire vive. Il est alors recommandé aux
personnes qui font beaucoup de
multitraitement d’avoir plus de RAM pour
que l’ordinateur soit plus fluide (1).
Le SSD (Solid State Drive) et le HDD
ont la même fonction. Ils enregistrent les
données. Nous pouvons comparer leur
fonction à celle de la clé USB. Ainsi, plus
vous avez de documents ou de données à
enregistrer, plus vous avez besoin d’un grand
nombre de gigaoctets dans votre SSD ou
HDD. De nos jours, les ordinateurs utilisent
presque tous le SSD, qui est plus rapide.
Cependant, ils sont aussi plus chers,
contrairement aux HDD, qui sont moins
rapides mais moins coûteux (7).
En conclusion, il est important de
choisir un ordinateur qui respecte notre
budget et l’usage que nous lui prévoyons,
puisque, bien qu’un ordinateur coûteux
performe mieux, il n’est pas toujours la
meilleure option. Pour faire un bon choix
d’achat, il faut considérer nos besoins en
premier et choisir les bonnes configurations
pour les composants de CPU, de GPU, de
RAM, et de SSD/HDD.
10
PHYSIQUE Le système dynamique chaotique du double pendule
Par : Augustin Davignon
Révision scientifique : Stéphane Houle
Introduction
Depuis des temps immémoriaux,
l’Homme a tenté par différents moyens de
prédire le futur, que ce soit par des
explications mythiques primitives ou par des
modélisations suivant scrupuleusement la
méthode scientifique. La croyance d’un
déterminisme cosmique déterminant
l’univers et d’un « Dieu horloger » était et est
toujours largement répandue dans les esprits.
Ce n’est que récemment que des chercheurs,
s’appuyant sur les travaux du mathématicien
Poincaré, ont commencé à parler de
l’indétermination de l’univers et à développer
une théorie qui allait devenir la théorie du
chaos. Selon eux, certains systèmes
dynamiques en physique seraient
particulièrement instables et adopteraient des
comportements imprévisibles, puisqu’ils
seraient non périodiques (1). L’objet de ma
recherche en physique, le double pendule
chaotique, en fait partie.
Je trouve son étude particulièrement
intéressante dans le sens qu’elle se distingue
des recherches classiques qui tentent, par des
approches inductives, de déterminer des
relations qui témoignent de manière
infaillible des observations empiriques, et
souvent en négligeant les comportements
chaotiques à titre d’erreurs expérimentales ou
de données aberrantes. Les systèmes
sursimplifiés étudiés dans le cadre des études
collégiales et antérieures font souvent fi de la
réalité chaotique, ce qui explique pourquoi
l’idée du chaos est très peu répandue dans la
société. L’objectif de ce travail sera singulier,
puisqu’il acceptera et tentera de quantifier le
comportement chaotique du double pendule.
L’originalité de ma recherche consiste à
évaluer l’impact de la modification du
système sur son comportement chaotique.
En ce qui concerne l’utilité de ma
recherche, elle permettra de quantifier, à
l’aide de l’exposant de Lyapunov, le degré de
chaos du double pendule en fonction de
certains de ses paramètres. Ainsi, en
connaissant les variables qui tendent à
augmenter l’instabilité du système, il sera
possible de réduire légèrement le
comportement chaotique de systèmes
dynamiques similaires, comme les bras de
robots (2).
La question de recherche du travail
s’incruste dans le domaine de la physique et
se formule de la façon suivante : quels sont
les effets de la variation de la masse du poids,
de la taille des branches et de l’énergie du
système sur le comportement chaotique d’un
double pendule? Pour arriver à mes fins, je
vais quantifier la stabilité de mon double
11
pendule en fonction de certaines variations
par le biais de l’exposant de Lyapunov. Ce
dernier est un outil efficace pour évaluer le
chaos dans les systèmes dynamiques
chaotiques (2).
Concrètement, le chaos représente
une extrême dépendance aux paramètres
initiaux, c’est-à-dire qu’une infime variation
des paramètres initiaux d’un système
chaotique mène à une erreur qui s’amplifie
exponentiellement dans le temps, menant
deux trajectoires initialement similaires à
diverger rapidement. Mathématiquement, la
croissance de l’erreur peut s’exprimer selon
la relation suivante, où λ est le plus grand
exposant positif de Lyapunov (3) :
∆𝑥(𝑡)~∆𝑥(𝑡0)𝑒𝜆𝑡
ÉQUATION I : Relation de la croissance de l’erreur
dans le temps selon l’exposant de Lyapunov.
Δx(t) représente l’erreur de trajectoire après un
certain temps, Δx(t0) représente l’erreur de trajectoire
initiale et t représente le temps.
Quant au double pendule, il peut être
schématisé de la façon suivante.
FIGURE I : « Définition du pendule double à l’aide
des variables utilisées pour décrire l’état du système »
(4). Le segment du double pendule qui relie m1 à
l’origine sera appelé « première branche » ou «
branche principale », alors que celui qui relie m2 à m1
sera nommé « deuxième branche » ou « branche
secondaire ».
Les équations de modélisation du
double pendule sont issues d’équations
différentielles contenant des termes non
linéaires, ce qui, combiné aux nombreux
paramètres de l’équation, lui confère son
comportement chaotique (5). Les
modélisations sont trop complexes pour être
étudiées dans le cadre de ce travail, comme le
montre l’équation II, qui décrit
numériquement une partie du système. Cette
complexité génère des variations locales de
l’exposant. Cependant, nous ne
considèrerons que le plus grand exposant de
Lyapunov avec l’équation I, puisque c’est lui
qui affecte le plus fortement le taux de
croissance exponentielle de l’erreur. Dans les
systèmes chaotiques, l’exposant devrait être
positif. Un exposant négatif exprime au
contraire un système non chaotique (3).
12
1 =𝑚2𝑔 sin(𝜃2) cos(𝜃1 − 𝜃2) + 𝑚2𝑙1𝜃1
2 sin(𝜃1 − 𝜃2) cos(𝜃1 − 𝜃2) + 𝑚2𝑙2𝜃22 sin(𝜃1 − 𝜃2) − (𝑚1 + 𝑚2)𝑔 sin(𝜃1)
(𝑚1 + 𝑚2)𝑙1 − 𝑚2𝑙1 cos(𝜃1 − 𝜃2)2
ÉQUATION II : Relation avec l’accélération angulaire de θ1 pour une analyse numérique du double pendule (4), où
l1 et l2 représentent les longueurs des branches, m1 et m2 les masses à chaque extrémité, θ1 et θ2 les angles formés par
les branches par rapport à la verticale, et le tout tel qu’illustré à la figure 1.0. θ1 modélise l’accélération angulaire.
Méthodologie expérimentale
Nombre et valeurs des variations
indépendantes
Ayant trois paramètres de différentes
natures à observer, un nombre important de
données devait nécessairement être considéré.
Pour chaque variation avec des conditions
initiales similaires, il était essentiel
d’enregistrer assez de données afin d’être en
mesure de procéder à des calculs de droites
de régression sur Excel et de déterminer une
relation exponentielle.
Pour calculer l’exposant de Lyapunov,
il faut comparer deux trajectoires similaires
afin d’obtenir une relation de différence de
trajectoires par rapport au temps. J’ai décidé
d’enregistrer quatre trajectoires pour chaque
variation, ce qui donnait la possibilité d’un
nombre de combinaisons uniques de six
différences de trajectoires.
Pour chaque paramètre, j’ai limité le
nombre de variations des variables
indépendantes à trois, ce qui est nettement
insuffisant pour déterminer une relation
quantitative entre la variation des paramètres
et la valeur de l’exposant de Lyapunov.
Toutefois, j’ai dû me satisfaire de ce nombre
pour respecter ma contrainte de temps. Par
conséquent, j’ai décidé de réduire la question
de recherche à une étude qualitative.
Enfin, en ce qui concerne les valeurs
des variables indépendantes, pour les
variations du rapport de la mesure des
branches, j’ai choisi 50 %, 100 % et 150 %
comme valeurs du rapport de la longueur de
la branche secondaire sur celle de la branche
primaire. Ce choix de valeurs me permettait
d’avoir des variations non négligeables. Pour
les masses ajoutées, j’ai choisi des valeurs de
masse ajoutée de 0 g, de 100 g et de 200 g. La
masse du pendule excluant la base se situe
autour de 315 g et cette masse est répartie
entre les deux branches et les pièces
métalliques aux articulations. Je pouvais
difficilement excéder une masse de 200 g,
puisque l’accélération gravitationnelle que la
masse subissait lui procurait une force qui
compromettait l’intégrité de mon montage et
rendait l’expérience non sécuritaire. De plus,
j’ai remarqué qu’en ajoutant des masses, mon
pendule, que je ne pouvais pas fixer au
plancher, commençait à vibrer, ce qui pouvait
modifier mes résultats. Une résonance
importante de la base peut stabiliser le
système, ce qui n’est pas souhaitable. Pour le
choix des valeurs des hauteurs initiales, elles
devaient être comprises entre la hauteur
maximale du pendule et la hauteur minimale
qui octroie assez d’énergie au système pour
qu’un mouvement chaotique soit observé.
J’ai décidé de faire varier la hauteur initiale
d’environ 2 cm entre chaque variation, ce qui
a donné des valeurs de (40,52 ± 0,34) cm,
(38,50 ± 0,18) cm et (36,71 ± 0,12) cm, à la
suite de quelques difficultés expérimentales.
13
Le témoin « Moyen-Moyen » représente la
variation avec un rapport de 100,1 %, une
hauteur initiale maximale de 0,4052 m et
aucune masse ajoutée (0 kg). Le pendule
partait au repos.
Construction du double pendule
La construction du double pendule
était divisée en deux étapes, la première étant
la conception des branches et la seconde, la
conception de la base. Lors de la première
étape, le principal objectif était de minimiser
la friction entre les deux branches ainsi
qu’entre le pendule et sa base. Non seulement
la présence de friction entre les deux
branches pourrait fausser mes résultats, mais
elle pourrait également dissiper l’énergie du
système, augmenter sa stabilité et ainsi
annihiler tout comportement chaotique. Pour
limiter la friction, j’ai percé des trous dans
des morceaux de bois préalablement
travaillés (qui allaient devenir mes branches)
et j’y ai encastré des roulements à billes de
planches à roulettes de 8 mm de diamètre
central, lesquels semblaient réduire le
frottement de façon satisfaisante pour
l’expérience. La friction n’est cependant pas
négligeable pour notre système, qui est
extrêmement sensible aux variations. Pour la
construction de la base, le principal défi
consistait à créer un support qui serait assez
stable et qui resterait assez immobile pour ne
pas affecter les résultats. Lors des
expérimentations, ne pouvant fixer
adéquatement la base au plancher, j’étais
contraint à me tenir debout sur cette dernière
afin d’appliquer tout mon poids dessus et
ainsi l’empêcher d’osciller. La figure II
présente le résultat final.
FIGURE II : Mon double pendule finalisé, fixé à sa
base et accoté à une planche positionnée pour
procurer à la seconde branche une hauteur initiale
prédéterminée.
Traitement des données
Tracker
Les données des trajectoires filmées
furent extraites des vidéos à l’aide du logiciel
Tracker. Avec ce dernier, j’ai été en mesure
de déterminer toutes les coordonnées en x et
y qui décrivaient la trajectoire d’un point
rouge situé à l’extrémité de la seconde
branche. Seulement un peu plus que la
première seconde des vidéos a été extraite.
Avec la résolution de la caméra, cela me
procurait environ 360 coordonnées dans le
temps par trajectoire, sur une durée allant de
1,0 à 1,5 seconde, soit amplement pour le
traitement des données.
14
Par convention, le calcul de
l’exposant utilise plutôt les angles et les
vitesses angulaires, et non les coordonnées
cartésiennes. Cependant, en plus de doubler
le temps d’analyse, le logiciel Tracker évalue
difficilement ces deux premières variables. Il
lui faudrait des vidéos ayant beaucoup plus
d’images par seconde afin de calculer les
vitesses angulaires des branches au
maximum de leurs vitesses. N’ayant pas la
qualité d’appareil nécessaire, j’ai opté pour
les variables x et y.
Méthodologie du traitement de
données
Une fois les coordonnées des
trajectoires extraites et mises dans Excel, j’ai
pu calculer la différence de position entre
deux points de deux trajectoires différentes à
un temps donné (Δs). Cependant, il m’a
premièrement fallu normaliser mes
trajectoires en déterminant un temps = 0
secondes commun. Par défaut, Tracker
débute la progression du temps à la première
image analysée. Pour normaliser mes
données, j’ai arbitrairement choisi de partir t
= 0 au moment où le déplacement par rapport
à la position initiale était le plus proche de 1
cm. Ensuite, pour chaque variation, les quatre
trajectoires ayant quasiment les mêmes
conditions initiales étaient comparées entre
elles pour générer six relations de Δs par
rapport au temps. Le graphique I exprime
tous les déplacements par rapport au temps
pour une variation.
GRAPHIQUE I : Comparaison de toutes les courbes Δs en fonction du temps pour les six combinaisons différentes
de trajectoires dans le cadre de l'étude du rapport de longueurs de 48,2 %. L’échelle des déplacements est
logarithmique. Les différentes séries identifiées par des codes correspondent à différentes combinaisons de
trajectoires comparées.
1.00E-04
1.00E-03
1.00E-02
1.00E-01
1.00E+00
0.00E+00 2.00E-01 4.00E-01 6.00E-01 8.00E-01 1.00E+00 1.20E+00 1.40E+00 1.60E+00
Δs
ou
dis
tan
ce e
ntr
e le
s p
oin
ts d
es
traj
ecto
ires
co
mp
arée
(m
)
Temps (s)
MC1-MC2 MC1-MC3 MC1-MC4 MC2-MC3 MC2-MC4 MC3-MC4
15
Dans le graphique I, on peut
remarquer que quatre déplacements, soit
MC1-MC2, MC1-MC4, MC2-MC3 et MC3-
MC4, se comportent très similairement sur la
première seconde. Cela indique que la
croissance de l’erreur (ou du déplacement)
entre les trajectoires comparées était très
similaire, donc qu’elles partaient avec des
conditions initiales très semblables. Nous
pouvons déjà remarquer que les deux
relations MC1-MC3 et MC2-MC4 adoptent
une croissance différente que celles des
autres trajectoires, mais qu’elles se
comportent relativement similairement entre
elles sur les premiers dixièmes de seconde.
Ensuite, étant donné que, pour le
calcul de l’exposant, seule la première
croissance était étudiée, j’ai réduit le domaine
afin qu’il soit compris entre 0 et 0,2 seconde.
Après cela, j’ai tracé les courbes sur chaque
série.
GRAPHIQUE II : Courbes de tendance exponentielle de toutes les courbes Δs en fonction du temps pour les six
combinaisons différentes de trajectoires dans le cadre de l'étude du rapport de longueurs de 48,2 % sur un domaine
réduit à temps ∈ [0,000 ; 0,200] seconde.
Comme l’on peut observer sur le
graphique II, les équations courbes de
tendance exponentielle des deux relations qui
sortaient du lot, soit celles de MC1-MC3 et
de MC2-MC4, possèdent un coefficient de
corrélation très faible. De plus, MC2-MC4
possède un l’exposant de Lyapunov négatif.
Je me suis permis de retirer du calcul de
y = 0,0218e8,7764x
R² = 0,9985y = 0,0034e2,1722x
R² = 0,0498
y = 0.0259e7.9123x
R² = 0.9974
y = 0.0215e8.9059x
R² = 0.9953y = 0.0126e-6.14x
R² = 0.7264
y = 0,0242e8,4285x
R² = 0,9967
1.00E-04
1.00E-03
1.00E-02
1.00E-01
1.00E+00
0.00E+00 4.00E-02 8.00E-02 1.20E-01 1.60E-01 2.00E-01
Δs
ou
dis
tan
ce e
ntr
e le
s p
oin
ts d
es
traj
ecto
ires
co
mp
arée
(m
)
Temps (s)
MC1-MC2 MC1-MC3MC1-MC4 MC2-MC3MC2-MC4 MC3-MC4Expon. (MC1-MC2) Expon. (MC1-MC3)Expon. (MC1-MC4) Expon. (MC3-MC4)
16
l’exposant de Lyapunov toutes les relations
dont l’exposant était négatif et, à une
exception près, toutes les relations dont le
coefficient de corrélation de l’équation était
inférieur à 0,9000. En effet, un exposant
négatif indique l’absence de chaos alors que
des coefficients de corrélation trop faibles
augmentent considérablement les
incertitudes.
L’exception à la règle vient de mon
témoin Moyen-Moyen dont cinq des six
courbes Δs des trajectoires filmées
témoignaient d’une relation peu significative
sur les 2 premiers dixièmes de seconde. Je ne
pouvais pas enlever autant de données. Pour
pallier ce problème, j’ai décidé
exceptionnellement de repousser légèrement
le domaine d’observation jusqu’à ce que des
relations cohérentes émergent, soit entre
temps = [0,15; 0,30] seconde.
Par la suite, en comparant les valeurs
des exposants ainsi que leurs incertitudes, j’ai
pu repérer et retirer certaines données
aberrantes. La comparaison des exposants
obtenus avec les différentes courbes Δs pour
un rapport de longueurs de 48,2 % nous
permet d’observer une tendance autour de λ
≈ 8,5. Le 2e exposant et le 5e exposant
calculés ont non seulement une incertitude
très élevée, mais leurs valeurs sont très
écartées de la tendance observée. Il est
difficile d’identifier la ou les séries
responsables de ces écarts. Afin d’éviter que
leurs impacts sur le calcul de l’exposant
central ne soient trop importants, j’ai préféré
retirer ces données jugées aberrantes et les
mettre sur la faute de l’imprécision de la
méthode expérimentale. N’ayant pas accès à
un électroaimant, le lancement se faisait de
façon manuelle en retirant subitement la
plaque sur laquelle s’appuyaient les branches
(voir figure II). Malgré mes précautions, il est
fort probable que le frottement avec la plaque
ait pu donner de l’énergie aux systèmes ayant
engendré ces perturbations.
Calcul de l’exposant de Lyapunov
Par la suite, différentes méthodes
d’analyse pour trouver la valeur et
l’incertitude de l’exposant s’offraient à moi
sur Excel, mais j’ai opté pour celle qui
maximisait l’incertitude afin de tenir plus en
compte la nature extrêmement sensible aux
perturbations du double pendule ainsi que les
incertitudes difficilement mesurables des
lectures de Tracker. Pour procéder au calcul
de l’exposant de Lyapunov, j’ai déterminé les
exposants des courbes Δs en appliquant des
régressions linéaires, comme au graphique II,
et j’ai ensuite calculé leurs valeurs centrales.
Analyse : Comparaison théorique
avec une simulation numérique
J’ai initialement tenté d’utiliser des
relations théoriques issues de l’analyse des
données théoriques extraites d’une
simulation numérique (6) comme base de
comparaison avant de réaliser qu’elles sont
très peu représentatives de la condition
expérimentale de ma recherche et qu’elles ne
devraient être considérées qu’à titre indicatif.
La simulation numérique suppose que les
branches reliant les masses ont une masse
nulle et s’appuie sur un système idéal sans
friction. Dans un contexte expérimental, le
frottement affecte grandement les résultats,
17
sans compter la conception même du pendule
qui présente de nombreuses imperfections.
La simulation utilise ce qu’on appelle un
double pendule simple, soit avec des masses
ponctuelles, alors que le nôtre a sa masse
répartie dans branches. Bien que ces deux
modèles se comportent similairement à
certaines énergies, ils présentent tout de
même plusieurs différences (7).
Enfin, certains résultats numériques
sont questionnables. Ma méthode de calcul
est efficace pour mesurer le chaos chez le
double pendule, mais pas chez le pendule
simple. Comme je fais varier très légèrement
l’angle initial entre deux trajectoires, il
advient que je modifie également la
fréquence du pendule, ce qui mène à des
trajectoires divergentes, et donc à un
exposant positif, même si le pendule simple
est périodique. Il est possible que ce taux
d’accroissement d’erreurs soit plus élevé que
celui dû aux variations des rapports de masse.
Comme je ne mesure par ma méthode que le
plus grand exposant, il n’était pas possible de
déterminer des valeurs théoriques pour les
variations de masse.
Variation du rapport des longueurs
J’ai observé que le rapport de
dimension de (100,1 ± 4,6) % est celui qui
présente le plus grand exposant de Lyapunov,
soit λ100,1% = (16,1 ± 1,3). Le rapport de
(152,0 ± 4,5) % obtient λ152,0% = (12,6 ± 1,8)
et celui de (48,2 ± 4,6) %, λ48,2% = (8,42 ±
0,57). La tendance expérimentale suggère
qu’un rapport proche de 100 % favoriserait le
chaos dans le pendule. Ce résultat corrobore
mon hypothèse initiale, qui soutenait qu’un
double pendule ayant deux branches de
dimensions égales soit plus chaotique qu’un
autre système similaire avec des branches de
longueurs différentes. En effet, intuitivement,
l’exercice fictif de pousser à l’extrême les
rapports de dimension mènerait normalement
à la formation d’un pendule simple, lequel
n’est pas chaotique. Visuellement, les
simulations présentent également des
systèmes périodiques lorsque les rapports de
dimension étaient poussés à l’extrême (6).
Comme les résultats correspondent à la
théorie, on peut dire qu’ils sont exacts.
Pour la précision des valeurs de mes
variables indépendantes, les incertitudes
relatives varient entre 2,9 %, 4,6 % et 6,9 %.
Comme j’ai utilisé le même instrument de
mesure, soit une règle graduée au millimètre,
l’incertitude absolue sur les mesures
demeurait plutôt stable à environ 4,6 %. Plus
la branche secondaire était petite, plus cette
incertitude absolue avait du poids sur
l’incertitude relative, ce qui explique le 6,9 %.
Cette dernière incertitude relative est un peu
élevée, ce qui implique que la valeur de son
rapport est moins précise. Toutefois, dans le
cadre d’une observation qualitative,
l’incertitude sur la valeur de la variable
indépendante est peu importante, à condition
bien sûr que les incertitudes de deux points
consécutifs ne se superposent pas et qu’il y
ait une bonne marge entre les valeurs
possibles de ces deux points. Comme c’est le
cas pour toutes les variations, je négligerai la
précision des valeurs des variables
indépendantes pour la suite de l’analyse.
Ensuite, pour la précision des valeurs
des exposants obtenus, les incertitudes
18
relatives ont pour valeur 8,3 %, 6,8 % et 14 %.
Dans le contexte de l’expérience, ces
incertitudes sont plutôt satisfaisantes. De plus,
elles n’empêchent pas d’observer une
possible relation entre l’exposant et la
variation, ce qui est l’objectif ultime du
travail.
Variation de la hauteur initiale
Pour l’étude de la deuxième variation,
on obtient des exposants qui semblent cette
fois-ci exprimer une relation qui correspond
à la théorie. En effet, mon hypothèse de
départ était que, plus la hauteur initiale était
petite, plus l’énergie mécanique du système
serait faible et plus l’exposant de Lyapunov
serait petit. Ici, pour une hauteur initiale de
(0,4052 ± 0,0034) m, on obtenait λ0,4052m =
(16,1 ± 1,3). Lorsqu’on diminuait une
première fois la hauteur pour qu’elle soit de
(0,3850 ± 0,0028) m, la valeur de l’exposant
diminuait à λ0,3850m = (10,5 ± 3,7). Si l’on
répétait l’opération une seconde fois pour une
hauteur initiale de (0,3671 ± 0,0022) m, le
même constat pouvait être observé, puisque
l’exposant diminuait à λ0,3671 = (9,6 ± 2,6). Il
est à noter que la différence entre les valeurs
centrales des exposants des deux dernières
hauteurs n’est pas très significative. Cela est
peut-être dû à l’imprécision des mesures et à
une inexactitude des valeurs des exposants,
mais également au fait que l’angle initial du
double pendule affecte légèrement la valeur
de l’exposant (8). Néanmoins, il est tout de
même intéressant de constater que l’exposant
semble bel et bien être affecté par l’énergie
mécanique initiale du système, puisque la
plus grande hauteur initiale donne le plus
haut exposant.
À propos des incertitudes relatives,
celles-ci varient entre 8,3 % et 36 % pour la
seconde méthode. Cette dernière incertitude
relative est très importante et montre que les
résultats obtenus sont peu précis, ce qui nuit
à mon analyse. Deux causes d’erreur me
viennent en tête pour expliquer ces
incertitudes. La première viendrait des
erreurs de manipulations liées au départ des
trajectoires. En diminuant la hauteur, le
deuxième bras s’accotait plus fortement à la
planche utilisée pour le maintenir en place
jusqu’à l’amorce. Puisque j’enlevais cette
branche manuellement, il est probable que
mon mouvement générait plus de friction
entre les deux surfaces et que cette dernière
résultait en une perturbation plus importante
de la trajectoire. Une seconde cause d’erreur
serait liée au fait qu’il était plus difficile
d’observer une tendance entre les courbes Δs
et de repérer les données les plus aberrantes.
Par conséquent, aucune donnée ne fut retirée
des calculs, expliquant en partie les grandes
incertitudes relatives et la faible précision.
Variation de la masse ajoutée à
l’extrémité de la seconde branche
Pour ce qui est de la dernière variation,
les résultats obtenus sont moyennement
concluants. Pour notre témoin avec aucune
masse ajoutée (0 kg), on obtenait λ0kg = (16,1
± 1,3) alors que, quand on ajoutait une masse
de (0,1000 ± 0,0020) kg, l’exposant
augmentait étonnamment jusqu’à λ0,1kg =
(18,6 ± 2,3). Lorsqu’on doublait cette masse
pour obtenir une masse additionnelle de
(0,2000 ± 0,0015) kg, l’exposant diminuait
plutôt pour devenir λ0,2kg = (9,6 ± 2,6). Cette
première augmentation des exposants
19
observée avec le premier ajout de masse
semble contredire mon hypothèse initiale, qui
était que, plus on ajoutait de masse à
l’extrémité du second pendule, plus le
système ressemblerait à un système de
pendule simple, plus il serait stable et plus
l’exposant de Lyapunov serait petit. Selon
moi, cette soudaine augmentation de λ0,1kg
pourrait s’expliquer par l’hypothèse que des
rapports de masses de 100 % tendraient à
maximiser le chaos. Certes, la masse des
deux branches était de 315 g, mais elle n’était
pas répartie uniformément. Les pièces
métalliques à l’intersection pesaient environ
60 g, faisant en sorte que l’addition d’une
masse de 100 g à l’extrémité rapprochait le
rapport des masses de 100 % et donc pouvait
maximiser le chaos. Il serait intéressant
d’approfondir l’expérience en ne considérant
que les rapports de masse.
Ensuite, les incertitudes relatives
tournent autour de 8,3 %, 13 % et 27 %. Cette
dernière incertitude relative de 27 % est très
importante, mais elle ne génère heureusement
pas trop de problèmes pour les comparaisons
finales, puisqu’elle permet malgré tout
d’observer que le dernier exposant est
significativement plus petit que les autres. Il
n’en est pas de même pour les autres
incertitudes relatives, puisqu’en regardant
l’intervalle des valeurs des exposants, il serait
possible que le système sans masse ajoutée
soit légèrement plus chaotique que celui avec
une masse ajoutée de 0,1000 kg. Par
conséquent, l’hypothèse de départ, même si
elle est non concluante, n’est pas à rejeter
entièrement.
Conclusion
Ce travail a permis de répondre
qualitativement à la question de recherche.
En constat général, les rapports de dimension
et de masse proches de 100 % ainsi que
l’augmentation de l’énergie potentielle du
système tendent à maximiser le chaos.
Toutefois, ces résultats sont très limités.
L’approche expérimentale s’est révélée un
défi extrêmement difficile. Malgré tous mes
efforts, les nombreuses imperfections de la
construction ont nécessairement grandement
affecté les résultats obtenus. Ce travail de
recherche s’est déroulé lors du confinement
généralisé lié à la pandémie de la COVID-19
et toutes les manipulations se sont faites à la
maison avec du matériel de faible précision.
Ma stratégie a été d’adapter le traitement de
mes données afin de tenir plus compte des
incertitudes, même si cela n’était pas idéal.
De plus, ce travail a mis en lumière l’extrême
complexité du double pendule, dont il est très
difficile d’isoler les paramètres. Les
variations de masse affectaient
nécessairement l’énergie potentielle et les
changements de hauteurs affectaient l’angle
initial. En ce sens, il m’est venu l’idée que les
simulations numériques, malgré leur
complexité, soient mieux adaptées à ce type
d’étude. Néanmoins, le travail a permis de
forger les bases à de futures recherches qui
pourraient se pencher sur une étude
quantitative du chaos. L’univers du chaos est
passionnant et il reste tant de choses à
découvrir sur le double pendule.
20
Le mouvement d’un avion correspond-il aux
équations de physique en aéronautique?
Par : Laure Salmon
Révision scientifique : Granger Piché
Révision linguistique : Mathieu Bélisle
Introduction
Le 17 décembre 1903, en Caroline du
Nord, les frères américains Wright réalisaient
le premier vol contrôlé à bord du Wright
Flyer (1). Peu de temps après, en 1909, un
aviateur français, Louis Blériot, traversait la
Manche (2). Ces succès révolutionnèrent la
société et marquèrent les débuts d’une
nouvelle ère, celle de la conquête aérienne
puis de l’espace, qui mènera les hommes
jusqu’à la Lune en 1969. Cette fascination
pour les airs n’était pas soudaine, ayant
passionné des milliers de gens, de la Grèce
Antique avec la légende d’Icare jusqu’à la
Renaissance, avec Léonard de Vinci (3). Elle
est d’ailleurs encore présente de nos jours,
alors que la NASA s’apprête à envoyer un
autre robot sur Mars, lequel, pour la première
fois, reviendra sur Terre à l’issue de sa
mission (4).
Si les premiers vols, tels que ceux des
frères Wright, étaient le résultat de nombreux
essais et erreurs, le développement des
technologies et les connaissances
mathématiques permettent aujourd’hui
d’étudier avec précision la dimension
scientifique du vol d’un avion, dont le
mouvement peut être expliqué par des
équations de physique. Ces multiples
innovations permettent alors non seulement
de comprendre le vol d’un point de vue
mécanique, mais améliorent aussi la sécurité,
grâce à la modélisation de vols d’avion, qui
permet de déterminer de manière exacte les
limitations de chaque avion.
La présente recherche mathématique
aura donc pour objectif de déterminer dans
quelle mesure le mouvement réel d’un avion
en vol correspond aux équations physiques
utilisées en aéronautique, et comparera les
spécifications de l’avion données par le
fabricant, telles que la vitesse limite de vol, à
celles trouvées par voie expérimentale. Les
valeurs expérimentales seront obtenues en
mesurant la position en fonction du temps
d’un avion à l’aide du logiciel GarminPilot
lors d’une accélération à puissance constante,
soit 2575 RPM, et à une altitude constante, de
5000 pieds. L’avion sera un Piper Cherokee
Turbo Arrow III. Les valeurs théoriques,
quant à elles, seront obtenues à partir
d’équations de physique et en utilisant la
méthode d’Euler.
Détermination des vitesses
expérimentales
Le 23 mars 2020, j’ai recueilli mes
données expérimentales, en effectuant lors
21
d’un vol d’avion une accélération en ligne
droite à partir d’une vitesse initiale basse, à
une altitude de 5000 pieds. J’ai obtenu des
données sur la position de l’avion en fonction
du temps (𝑡) , que j’ai présentées dans un
graphique.
GRAPHIQUE I : Position de l’avion (𝑥) en fonction
du temps (𝑡)
Puis, j’ai transformé celui-ci en
graphique de la vitesse en fonction du temps,
puisque c’est ce que je désirais comparer.
Pour trouver la vitesse, je me suis donc basée
sur l’équation générale de la vitesse, qui
correspond à la variation de position en
fonction du temps, soit l’équation I.
(1) 𝑣 = ∆𝑥
𝑡
Sur le graphique de la position, la
position correspond à la pente. Or, le
graphique n’étant pas linéaire, celle-ci
change constamment. Il faut donc calculer la
vitesse instantanée, qui équivaut à la pente de
la tangente et donc à la dérivée de la fonction
de la position en fonction du temps. Or, je ne
connais pas la règle de la fonction de mon
graphique initial, en raison du fait que mes
données sont expérimentales et ne suivent
donc pas parfaitement une fonction. Je ne
peux donc pas déterminer la règle de la
fonction dérivée pour déterminer de manière
exacte mes valeurs de vitesses instantanées.
Toutefois, la dérivée, qui correspond à la
vitesse instantanée, revient à calculer la
vitesse moyenne lorsque ∆𝑡 tend vers 0.
Puisque le ∆𝑡 entre mes mesures était petit,
soit de seulement 1 ou 2 secondes, j’ai décidé
de faire l’approximation que la pente de la
tangente en un point était environ égale à la
pente de la sécante passant par deux points à
égale distance de celui-ci. J’ai donc calculé la
pente de ces sécantes en divisant la variation
de position (∆𝑥) par la variation de temps
(∆𝑡) entre ces deux points équidistants, avec
l’équation II :
(2) 𝑣𝑖𝑡𝑒𝑠𝑠𝑒 𝑖𝑛𝑠𝑡𝑎𝑛𝑡𝑎𝑛é𝑒 𝑎𝑝𝑝𝑟𝑜𝑥𝑖𝑚é𝑒
(𝑝𝑒𝑛𝑡𝑒 𝑑𝑒 𝑙𝑎 𝑠é𝑐𝑎𝑛𝑡𝑒) = ∆𝑥
∆𝑡=
𝑥2 − 𝑥1
𝑡2 − 𝑡1
Exemple de calculs, avec l’équation (2)
au temps t = 4 secondes
𝑣𝑖𝑡𝑒𝑠𝑠𝑒 𝑖𝑛𝑠𝑡𝑎𝑛𝑡𝑎𝑛é𝑒 = 𝑥2 − 𝑥1
𝑡2 − 𝑡1
=62793.68 𝑚 − 62602.04 𝑚
6.00 𝑠 − 2.00 𝑠
=191.64 𝑚
4.00 𝑠= 47.91 𝑚/𝑠
Cette approximation est donc l’une
des limites de mon exploration, puisque je
perds ainsi de la précision dans mes valeurs,
mais puisque l’intervalle de temps est très
petit, l’erreur sur mes résultats ne sera que
minime. Ce calcul m’a ainsi permis d’obtenir
des vitesses instantanées approximatives. J’ai
ensuite créé un graphique des vitesses
expérimentales en fonction du temps.
22
GRAPHIQUE II : Vitesse expérimentale de l’avion
(𝒗) en fonction du temps (𝒕)
Dans le graphique, l’ordonnée à
l’origine n’est pas nulle, puisqu’il était
impossible de commencer l’accélération à 0
m/s, car l’avion devait avoir une certaine
vitesse pour maintenir son altitude, sinon il
aurait décroché. Nous avons donc commencé
aux mesures à la vitesse la plus faible
possible, en nous plaçant en vol lent, soit à
environ 78 nœuds (40 m/s).
Détermination des vitesses
théoriques
Pour déterminer les vitesses
théoriques lors de l’accélération d’un avion,
il est nécessaire de comprendre les forces qui
s’exercent sur celui-ci. Le poids (weight)
correspond à l’attraction gravitationnelle de
la Terre et la portance (lift), qui agit dans le
sens opposé, permet à l’avion de s’élever
dans le ciel. Lorsqu’il n’y a pas de
changement d’altitude, ces deux forces
s’annulent mutuellement. La force de traînée
(drag) correspond à la force de frottement de
la résistance de l’air et la force de poussée
(thrust) à la force du moteur de l’avion, qui
lui permet d’avancer (5).
Selon la deuxième loi de Newton, la
somme des forces en jeu sur un avion est
égale à la masse de l’avion multipliée par son
accélération, soit les équations III et IV :
(3) ∑ F = 𝑚𝑎
(4) ∑ F = 𝐹 𝑡𝑟𝑎î𝑛é𝑒 + 𝐹 𝑝𝑜𝑢𝑠𝑠é𝑒 + 𝐹 𝑝𝑜𝑖𝑑𝑠 +
𝐹 𝑝𝑜𝑟𝑡𝑎𝑛𝑐𝑒 = 𝑚𝑎
Puisque lors de la prise de mesure,
l’avion maintiendra une altitude constante, la
portance et le poids s’annulent mutuellement
et je n’étudierai donc le mouvement que
selon l’axe horizontal, soit l’axe des 𝑥 .
L’équation se simplifie pour donner
l’équation V. Dans cette équation, qui
représente les forces selon l’axe horizontal, la
traînée agit en sens contraire des axes, ce qui
explique pourquoi elle est négative.
(5) ∑F𝑥 = 𝐹𝑝𝑜𝑢𝑠𝑠é𝑒 − 𝐹𝑡𝑟𝑎î𝑛é𝑒 = 𝑚𝑎
Lors d’une accélération, comme c’est
le cas de ma situation, les forces de traînée et
de poussée ne sont pas égales. Pour trouver
ma relation théorique et mes valeurs
théoriques de vitesses, il me faut donc être en
mesure de déterminer ces deux forces.
La méthode d’Euler
La méthode d’Euler est une procédure
numérique qui permet d’obtenir une
approximation d’une équation différentielle
de premier ordre avec une condition initiale.
o Une équation différentielle est une
équation dont l’inconnue est une
fonction, et qui se présente sous la forme
23
d’une relation entre cette fonction et ses
dérivées (10). Dans mon cas, l’inconnu
est la fonction de vitesse en fonction du
temps et mon équation se présente bien
sous la forme d’une relation entre la
vitesse et l’accélération, qui est la dérivée
de la vitesse.
o Une équation de premier ordre indique
qu’il n’y a qu’une dérivée, ce qui est mon
cas.
o Une condition initiale signifie que le
point de départ de la courbe est donné, ce
qui est mon cas, car comme je considère
que l’avion part du repos, au temps 0, la
vitesse de celui-ci est de 0 m/s.
Bien que j’aie choisi de commencer
mes calculs de vitesses théoriques à 0 m/s, je
suis consciente que cela est impossible en
réalité, puisque l’avion ne peut avoir une
vitesse nulle en vol. Toutefois, cela simplifie
mes calculs et me donne des résultats plus
précis, puisque sinon, j’aurais dû utiliser une
valeur expérimentale comme vitesse initiale,
soit les 41,26 m/s obtenus plus haut, ce qui
aurait influencé mes résultats, censés être
théoriques, et aurait biaisé ma comparaison.
Si je commence mes calculs à 0 m/s, il ne me
suffira que d’ajuster les résultats théoriques
obtenus afin qu’ils coïncident avec la vitesse
expérimentale initiale lorsque je ferai le
graphique final.
Il faut employer cette méthode, car
l’équation obtenue ne donne pas directement
la fonction de la vitesse en fonction du temps,
mais seulement la relation entre
l’accélération et la vitesse. Or cette
accélération correspond à la dérivée de la
vitesse en fonction du temps. Je connais donc
la fonction de la dérivée (accélération) que je
désire tracer (celle de la vitesse en fonction
du temps) et dont je veux obtenir les points.
La résolution par la méthode d’Euler se base
sur le principe de linéarisation, selon lequel
toute courbe peut être considérée comme une
série de lignes lorsque l’échelle est très petite.
La méthode Euler utilise ce principe, en
postulant que la courbe, qui représente la
vitesse en fonction du temps, peut être
représentée par une infinité de petites lignes,
qui correspondent aux tangentes successives
de tous les points de la courbe. Or, la dérivée
de la fonction, qui, dans le cas d’une équation
différentielle de premier ordre, est connue,
correspond aux pentes de ces tangentes.
Ces pentes peuvent donc être utilisées
pour approximer les autres points de la
courbe, en partant d’un point initial (11). En
effet, en partant d’un point initial, dont les
coordonnées sont (𝑋0, 𝑌0), il est possible de
déterminer un deuxième point de la courbe,
situé à une distance ∆𝑥 du premier point, en
utilisant la tangente au point initial, car si
l’écart, c’est-à-dire le ∆𝑥 entre les deux
points est très petit, les deux points, séparés
d’une distance ∆𝑥 sur la courbe,
correspondent presque aux points séparés de
cette même distance ∆𝑥 sur la tangente.
La valeur de l’abscisse du point
trouvé, soit 𝑋1, est donc égale à la valeur de
𝑋0 à laquelle on ajoute la distance choisie,
soit le ∆𝑥. Sa valeur peut être exprimée par la
formule VI :
(6) 𝑋1 = 𝑋0 + ∆𝑥
24
C’est la même chose pour les valeurs
d’ordonnée : la valeur de, 𝑌1 (la vitesse au
temps 1, soit la vitesse que je viens de
calculer), est égale à la valeur de 𝑌0 (la
vitesse au temps 0, soit la vitesse précédente)
à laquelle on a ajouté une certaine valeur, soit
un certain ∆𝑦, qui, lui, correspond à la pente
de la tangente (𝑎) fois le ∆𝑥, en raison de la
formule générale de la pente d’une droite,
dans laquelle on peut isoler le ∆𝑦.
(7) 𝑝𝑒𝑛𝑡𝑒 = 𝑎 =∆𝑦
∆𝑥
(8) ∆𝑦 = 𝑎 × ∆𝑥
(9) 𝑌1 = 𝑌0 + ∆𝑥 × 𝑎
Or le 𝑎 correspond à la pente de la
tangente, soit l’accélération, dont je connais
la fonction, donc je peux remplacer sa valeur
dans l’équation pour trouver Y1.
(10) 𝑌1 = 𝑌0 + ∆𝑥 ×𝑑𝑣
𝑑𝑡
(11) 𝑌1 = 𝑌0 + ∆𝑥 × (𝐴𝑣2 + 𝐵)
Exemple de calcul au temps t = 1 seconde
𝑌1 = 𝑌0 + ∆𝑥 × (𝐴𝑣2 + 𝐵)
= 0.00𝑚
𝑠+ 1.00 𝑠𝑒𝑐
× (− 0,00042 𝑘𝑔−1(0.00)2
+ 2,875𝑁
𝑘𝑔) ≈ 2,88
𝑚
𝑠
Une fois avoir trouvé les coordonnées
de ce deuxième point, il est possible de
calculer un troisième point à partir du
deuxième, dont on connaît également la
tangente, qui n’est plus la même que celle du
premier point, en effectuant les mêmes
calculs. Ainsi, en effectuant les calculs pour
un grand nombre de points, il est possible de
déterminer les points d’une courbe de
manière assez précise, car les points trouvés
s’adaptent en fonction de la tangente, qui
change de la même manière que la courbe.
Même si cette méthode reste une
approximation, si le ∆𝑥 choisi est très petit et
que la courbe ne change pas rapidement de
direction, l’estimation sera très précise.
J’ai donc créé un tableau, dans lequel
j’ai entré les valeurs de temps et les valeurs
de vitesses théoriques obtenues par la
méthode d’Euler. Dans la première rangée,
j’ai inscrit la condition initiale, soit qu’au
temps 0, la vitesse théorique est nulle,
puisque l’avion part du repos. Puis j’ai
effectué les calculs pour trouver les autres
valeurs de X et de Y, en utilisant un ∆𝑥 de 1
seconde, à l’aide des équations VI et XI. J’ai
ensuite créé un graphique à partir des vitesses
obtenues.
GRAPHIQUE III : Vitesse théorique de l’avion (𝑣)
en fonction du temps (𝑡)
25
Comparaison entre les vitesses
théoriques et expérimentales
Pour déterminer dans quelle mesure
les vitesses obtenues expérimentalement et
théoriquement étaient similaires, j’ai
superposé les deux graphiques, en faisant
correspondre les vitesses. En effet, j’ai dû
ajuster le graphique, car lors de la prise de
données expérimentales, je ne pouvais pas
commencer à une vitesse nulle. J’ai donc fait
commencer mes données expérimentales, qui
commençaient environ à 41,26 m/s, au
moment où la vitesse théorique atteignait
environ 40 m/s aussi, ce qui correspondait à
15 secondes (où la vitesse est de 39,86 m/s).
GRAPHIQUE IV : Superposition des vitesses théoriques (𝑣𝑡ℎé𝑜.) et les vitesses expérimentales (𝑣𝑒𝑥𝑝.) en fonction
du temps (𝑡)
Puisque le pourcentage d’écart moyen
obtenu de 2,45 % est minime, on peut
considérer que la courbe théorique représente
adéquatement les valeurs expérimentales, et
que la méthode d’Euler est efficace pour
construire une courbe dont l’équation
possède une dérivée.
Explication de l’écart entre les
valeurs théoriques et
expérimentales
La seule variation marquante entre la
courbe théorique et expérimentale se situe
entre 25,00 et 40,00 secondes. Cela
26
s’explique par le fait que 25,00 secondes
après le début de mon accélération, j’ai rentré
les volets, ce qui a accéléré encore plus
l’avion.
En effet, puisque les volets
augmentent la portance de l’aile et permettent
donc de descendre à une vitesse très basse
sans décrocher, cela m’avait permis de
commencer la prise de mesure à la vitesse la
moins élevée possible. Or, en gagnant de la
vitesse, les volets exercent une traînée de plus
en plus importante, et j’ai donc dû les
remonter, afin de ne pas les endommager.
Puisque la force de traînée a subitement
diminué, les vitesses, elles, ont augmenté
encore plus rapidement.
C’est aussi cela qui a permis à l’avion
d’atteindre sa vitesse maximale, puisque si je
n’avais pas rentré mes volets, la courbe aurait
continué dans la direction qu’elle semblait
prendre jusqu’à 25 secondes, qui est
beaucoup plus basse, car elle semblait déjà
commencer à se stabiliser.
Comparaison des vitesses limites
La vitesse limite obtenue lors de mon
vol expérimental est d’environ 163 nœuds.
Celle-ci est assez proche de la vitesse limite
du manuel technique de mon avion, qui est
d’environ 160 nœuds, ce qui prouve d’autant
plus que mes données expérimentales
s’accordent bien avec la théorie.
Conclusion
Puisque ma courbe théorique se
superpose presque parfaitement à mes
données expérimentales, je peux considérer
que les équations de physique permettent de
représenter adéquatement le comportement
d’un avion lors d’une accélération. Cela me
permet également de conclure que la méthode
d’Euler s’avère être une approximation
efficace dans le cas de l’accélération d’un
avion.
En conclusion, il est impressionnant
de constater qu’une technologie aussi
développée et complexe que l’aviation puisse
être étudiée au travers d’équations de
physique assez simples et que ce sont les
mathématiques et la physique qui nous
permettent de voler en toute sécurité,
puisqu’ils ont permis de construire des avions
plus performants et plus sécuritaires. Or, si
ces équations ont permis d’étudier avec
précision l’aviation, ce n’est pas le cas de tout,
et bien des phénomènes de l’Univers restent
encore incompris et inexplicables par la
science actuelle, notamment en ce qui
concerne l’extrêmement grand et
l’extrêmement petit, où, bien souvent, les lois
de la physique ne s’appliquent plus. La
physique fait donc face à l’un des plus grands
défis qu’elle n’a jamais connus et que bien
des scientifiques ont tenté de résoudre en vain
jusqu’à ce jour : trouvera-t-on un jour une loi
unique qui permettra d’expliquer l’entièreté
de l’Univers ?
27
CHIMIE L’effet de la concentration sur la masse déposée
durant l’électrodéposition
Par : Quynh Nga Jessica Nguyen
Révision scientifique : Louise Boisvert
Révision linguistique : Nathalie Loignon
Introduction
Bien que de nombreux marchés
montrent des décroissances économiques
durant la pandémie de COVID-19 en 2020, le
marché de l’électrodéposition est en passe de
connaître une croissance continue au cours de
la période de prévision 2020-2026 (1). Grâce
à l'avènement de produits de consommation
tels que les cellulaires, les bijoux, les
dispositifs médicaux, et d'autres produits
électroniques, la demande croissante de semi-
conducteurs et de fils dans le monde stimule
la croissance du marché de
l’électrodéposition. L’électrodéposition est
un processus qui consiste en un placage
métallique afin d'éviter la corrosion du métal.
Ce processus se fait essentiellement en
utilisant un courant électrique pour
développer une couche mince de revêtement
métallique sur l'électrode dans un bain
électrolytique (2). Il est majoritairement
utilisé pour améliorer les propriétés de
surface du matériau, la résistance à l'usure et
la conductivité électrique. Le cuivre est l'un
des métaux les plus utilisés dans l'industrie
des semi-conducteurs (1). Presque toutes les
connexions dans les puces semi-conductrices
sont en cuivre en raison de la faible résistance
électrique et de la bonne résistance à
l'oxydation de ce métal. En électrochimie, de
nombreuses études sur les effets du courant et
sur la nature de l’électrolyte sont effectuées
en suivant la loi de Faraday. Ce sont des
facteurs, dans l’équation de Faraday 𝑚 =𝑀𝐼𝑡
𝑛𝐹,
qui pourraient stimuler l’efficacité du placage
de métal (3). La masse déposée par
électrodéposition peut être calculée selon
cette formule donnée. Toutefois, dans cette
équation, la concentration ne s’y retrouve pas.
En effet, les expériences sur l’influence de la
concentration électrolytique sur
l’électrodéposition sont rares. Est-ce que le
résultat serait le même si j’utilisais des
solutions électrolytiques à concentrations
différentes? J’ai alors décidé de faire ma
recherche sur l’électrodéposition du
CuSO4(aq) à différentes concentrations. Ainsi,
le thème de la recherche porte sur
l’électrodéposition.
Question de recherche
Quel est l’effet de la variation de la
concentration de l’électrolyte CuSO4(aq) sur la
masse de cuivre déposée à la cathode durant
son électrodéposition?
28
Théorie
Électrodéposition
L’électrolyse est une réaction
chimique résultant d’une différence de
potentiel appliqué aux électrodes (4).
L’électrodéposition consiste à utiliser
l’électrolyse pour déposer une couche de
métal sur un autre métal. Il nécessite une
cellule électrolytique où l'électricité entraîne
des réactions rédox non spontanées (2).
L'anode et la cathode sont immergées dans
une solution qui contient un sel métallique
dissous - tel qu'un ion du métal plaqué - et
d'autres ions qui agissent pour permettre la
circulation de l'électricité dans le circuit. Le
métal à plaquer est utilisé comme cathode et
la solution électrolytique contient un ion
dérivé de ce métal. Dans cette expérience,
une électrode en cuivre (anode) et une en
carbone (cathode) seront utilisées dans une
solution aqueuse de CuSO4. Un électrolyte se
définit comme tout composé qui peut se
dissocier en ions lorsqu'il est dissous dans des
solvants polaires comme l'eau (5). Dans le cas
du CuSO4, il se dissocie en ions Cu2+(aq) et
SO42-
(aq). J’ai utilisé du sulfate de cuivre
pentahydraté pour l’expérience. Les cinq
molécules d'eau, associées comme hydrate
dans la molécule, rejoignent le reste des
molécules d'eau qui agissent comme solvant
(5). Ainsi, le CuSO4(aq) agit comme un
électrolyte puissant. L'anode est connectée à
la borne positive de l'alimentation et doit
contenir des atomes de la même nature que
les ions dans la solution, tandis que la
cathode, connectée à la borne négative, doit
être simplement faite de matière conductrice
(2). J’utiliserai une électrode en carbone, un
excellent conducteur d’électricité, pour la
cathode et une bande de cuivre comme anode.
L'alimentation externe fait circuler un
courant constant dans la cellule. Le courant
est transporté dans le circuit externe, à travers
des fils, par le mouvement des électrons et
dans la solution par le mouvement des ions
(4). Le mouvement des cations chargés
positivement dans une direction dans la
solution équivaut électriquement au
mouvement des électrons chargés
négativement dans la direction opposée dans
les fils. Lorsque le circuit est fermé, le cuivre
métallique de l'anode est oxydé, permettant
aux ions de cuivre de pénétrer dans la
solution.
Anode : 𝐶𝑢(𝑠) → 𝐶𝑢(𝑎𝑞)2+ + 2é
Pendant ce temps, les ions de cuivre de la
solution sont réduits en cuivre métallique à la
surface de la cathode.
Cathode : 𝐶𝑢(𝑎𝑞)2+ + 2é → 𝐶𝑢(𝑠)
Les ions de cuivre seront plaqués sur
l’électrode en carbone, donc à la cathode. La
quantité de Cu déposée est déterminée en
pesant l'électrode de carbone (cathode) avant
et après le placage. Théoriquement, l'anode
perd une masse égale à celle gagnée par la
cathode, car le cuivre est « transféré » de
l'anode dans la solution et de la solution à la
cathode par la perte de charges et du
mouvement des ions. La différence de masse
du cuivre plaqué peut être calculée: m(Cu) =
m(final)–m(initial). La quantité de produit déposé
dépend de la charge de l'ion, du courant et de
la durée de l'électrolyse (3). Ce sont les lois
de Faraday. La 1ère loi stipule que la masse
d’une substance modifiée par une électrode
29
lors de l’électrolyse est directement
proportionnelle à la charge électrique
transférée à cette électrode. La 2e loi implique
que, pour une quantité donnée de charge
électrique, la masse d'un matériau altéré par
une électrode est directement proportionnelle
à la masse molaire de l'élément divisée par le
changement d'état d'oxydation qu'il subit lors
de l'électrolyse (3). Les lois de Faraday
peuvent être présentées selon l’équation
suivante : 𝑚 =𝑀𝐼𝑡
𝑛𝐹 où m est la masse de
métal déposée à la cathode (g), M est la masse
molaire du métal déposé (g/mol), I est le
courant électrique (A), t est le temps
d’électrodéposition (s), n est le nombre de
moles échangées (mol) et F est la constante
de Faraday (96485 C/mol) (3). Cette formule
servira à calculer la masse cuivrique
théorique déposée. Étant donné que la nature
des électrodes, le temps et l’intensité du
courant sont des facteurs qui influencent la
masse déposée, ils seront des variables
contrôlées lors de l’expérience, qui se fera
dans une pièce à température constante.
Hypothèse
En théorie, si l’on suit la loi de
Faraday, on devrait avoir une masse déposée
constante à chaque essai si l’on garde la
même quantité de courant fourni et le même
temps durant l’électrodéposition (3). Ceci
donnerait un graphique selon lequel la masse
déposée suit une relation constante selon la
concentration électrolytique. Cependant,
personnellement, je pense que la
modification de la concentration de
l’électrolyte aura un effet sur la masse
déposée. En effet, plus la concentration
d’électrolyte est forte, plus il y a d’ions de
cuivre Cu2+ disponibles à être plaqués à la
cathode. Je crois alors obtenir une relation
proportionnelle et positive entre la quantité
de masse cuivrique déposée et la
concentration de solution électrolytique.
Résultats
Concentration
(M)
Masse cuivrique déposée moyenne
expérimentale
(∆m ± 0,002 g)
Masse cuivrique théorique
déposée (g)
%
d'écart
0,1 0,002
0,015
87
0,2 0,009 40
0,5 0,017 13
1,0 0,034 127
TABLEAU I : Données pour le pourcentage d'écart entre la masse cuivre théorique déposée et les masses
expérimentales
30
TABLEAU II : Données brutes qualitatives de la cathode et de la solution électrolytique selon la concentration
utilisée suite à l’électrodéposition
GRAPHIQUE I : Déterminer l'influence du changement de concentration de la solution électrolytique de
CuSO4∙5H2O (M) sur la masse de cuivre déposée à la cathode (g) suite à l'électrodéposition
y = 0.0341x + 6E-05
R² = 0.9865
0.000
0.005
0.010
0.015
0.020
0.025
0.030
0.035
0.040
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Mas
se d
e cu
ivre
dép
osé
(g)
Concentration de la solution électrolytique de CuSO4∙5H2O (M)
Concentration
(M)
Description de la cathode après
l’électrodéposition
Description de l’anode La solution
électrolytique
0,1 Un petit trait de couleur ocre sur un bord de la
cathode était visible. Il se trouvait notamment
sur la partie de la cathode proche de l’anode. Il
était aussi difficile à percevoir.
Petites bulles produites
durant la réaction. Aucune
différence physique
retrouvée sur l’anode.
Bleu très pâle ;
couleur
constante
0,2 Un seul bord de la cathode était couvert d’une
fine couche de cuivre. La couche de cuivre
déposée n’était pas uniforme. Elle était délavée
dans quelques coins de la cathode.
Bulles produites durant la
réaction. Une petite partie
de l’anode est délavée.
Bleu ciel;
couleur
constante
0,5 Les deux bords de la cathode étaient couverts
d’une couche fine de cuivre. Les couches de
cuivre étaient assez visibles, mais pas uniformes
dans toute la partie submergée de la cathode.
Bulles produites durant la
réaction. Un seul côté de
l’anode est délavé.
Bleu foncé,
royal ; couleur
constante
1,0 Toute la partie de la cathode submergée dans la
solution électrolytique a été couverte des deux
bords d’une couche de cuivre très apparente,
uniforme et opaque de couleur ocre. Quelques
parties de cuivre granuleuses.
Grande quantité de bulles
produites durant la
réaction. Toute la partie
submergée de l’anode est
délavée.
Bleu très
foncé, voire
marin ; couleur
constante
31
Analyse des résultats
La tendance linéaire en jaune décrit le
mieux la relation obtenue entre les points.
Ceci montre une corrélation positive entre la
concentration de la solution électrolytique et
la masse de cuivre déposée à la cathode. La
régression linéaire obtenue est de 0,0341x +
6E-05. Plus la concentration augmente, plus
la masse déposée augmente aussi. Ceci
confirme bien l’hypothèse de départ.
Contrairement à la loi de Faraday indiquant
qu’en théorie, la masse reste constante, peu
importe la concentration, ce qui donnerait
une tendance constante durant la réaction, la
masse déposée à la cathode est influencée par
le changement de concentration de la solution
électrolytique. En ce qui concerne les
données analysées, on peut dire que la
corrélation entre les variables indépendantes
et dépendantes est forte, puisque le
coefficient de détermination R2 pour la
meilleure tendance dans le graphique 1 est
0,9865 et que la tendance reste à l’intérieur
des incertitudes massiques. De plus, le fait
que la tendance ne passe pas par l’origine
(0,0) peut être expliqué par des erreurs
expérimentales systématiques. En pratique, à
une concentration de 0 M, la relation indique
que j’obtiendrai une masse déposée de
0,00006 g. Par contre, si la solution ne
contenait pas d’électrolytes qui laissent
passer le courant, la réaction
d’électrodéposition n’aurait pas eu lieu en
théorie. Étant donné que cette constante de
0,00006 est énormément proche de 0, on peut
la négliger et la considérer comme une erreur
de manipulation. De plus, malgré le fait que
0,0341 g/M semble comme une petite valeur,
elle est justifiable par l’augmentation
massique subtile des cathodes pour une
courte période de temps de 180 secondes et
par son infériorité à l’incertitude
correspondante des moyennes massiques.
Chaque masse déposée est différente d’une
concentration à une autre. Les masses
déposées moyennes 0,002 g, 0,009 g, 0,017 g
et 0,034 g sont assez significatives
puisqu’elles dépassent le cadre d’incertitude
de 0,002 g, à l’exception de la valeur obtenue
avec l’essai de 0,1 M. Le pourcentage d’écart
entre la valeur de littérature et les masses
cuivriques expérimentales est significatif. En
effet, selon l’équation de Faraday, on obtient
une masse de cuivre déposée à la cathode de
0,015 g (3). Les écarts obtenus sont de 87 %,
40 %, 13 % et 127 %. Même l’écart le plus
petit est supérieur à 10 %. Les pourcentages
d’écart sont alors assez significatifs pour
affirmer que la concentration a alors un effet
important sur la masse déposée à la cathode.
L’augmentation de la concentration
électrolytique augmente la disponibilité
d’ions libres pour faire la réaction
d’électrodéposition (9). Chaque fois qu’un
électrolyte de sulfate de cuivre est dilué dans
l’eau, ses molécules se divisent en ions
positifs Cu2+ et négatifs SO42-. Une solution
électrolytique contenant une concentration de
sulfate de cuivre élevée contient plus d’ions
de cuivre et de sulfate qu’une solution à
concentration faible. Ainsi, lorsqu’il y a un
courant qui passe à travers la solution, la
disponibilité à réagir des électrons est plus
grande (2).
Le courant continu est fourni à l'anode,
chargé positivement, et oxyde ses atomes
métalliques neutres (2). Les atomes de cuivre
32
perdent alors leurs électrons et deviennent
des ions Cu2+. Ceci peut être démontré par
l’équation d’oxydation suivante :
Cu(s) – 2e– → Cu2+(aq)
Ils sont donc dissous dans la solution
d'électrolyte. Les ions de sulfates SO42-,
chargés négativement, se déplacent vers
l'anode en cuivre chargée positivement,
libérant des électrons, et deviennent radicaux
de SO42-. Comme le SO4
2- ne peut pas exister
à l’état neutre électriquement, il attaque
l’électrode métallique positive en formant un
sulfate métallique avec l’ion Cu2+ qui se
dissoudra à nouveau dans l’eau (9). La
présence des ions de la solution électrolytique
est fondamentale à la réaction
d’électrodéposition puisqu’ils présentent des
charges qui permettent à l’électricité de
voyager à travers le circuit (4). Ces électrons
se déplacent à travers la source de courant de
l’anode vers la cathode en carbone en passant
par les fils électriques. C’est ce déplacement
des électrons qui génère le courant électrique.
Les ions positifs de cuivre disponibles dans la
solution électrolytique sont attirés par
l’électrode chargée négative (cathode). Ces
ions positifs Cu2+ gagnent des électrons
fournis par la cathode et deviennent un atome
de métal pur. Les ions métalliques dissous
sont donc réduits à la cathode. Ils se déposent
sur l’électrode en formant une fine couche de
cuivre. Ceci peut être démontré par
l’équation de réduction :
Cu2+(aq) + 2e– → Cu(s)
L’anode perd des atomes pendant que
la cathode en gagne. Ces pertes et gains
d’électrons se font continuellement pour
changer la masse des électrodes (2).
Par rapport aux données qualitatives,
plus la concentration de la solution
électrolytique augmentait, plus la masse de
cuivre déposée sur la cathode était visible et
la déposition se faisait sur une plus grande
surface de contact. De plus, il n’y a pas eu de
changement de couleur de la solution
électrolytique durant l’électrodéposition pour
tous les essais. Les ions de cuivre sont bleus
et les ions sulfate sont incolores (10). La
conservation de la couleur illustre que la
concentration des solutions électrolytiques
est demeurée constante au cours de la
réaction. La variable de la concentration de
solution électrolytique a été bel et bien
contrôlée. Ceci s’explique par la présence de
la bande de cuivre qui servait de réserve
d’ions cuivriques pour la solution
électrolytique. En effet, plus la concentration
augmente, plus la bande de cuivre était
visiblement érodée. Cette dégradation
cuivrique s’explique par la fonction de la
bande de cuivre dans le circuit. Le cuivre
destiné au placage provient de la solution
d’électrolyte. Lorsque la disponibilité des
ions cuivriques diminue, la carence d’ions est
remplie par l’oxydation des atomes de cuivre
de l’anode. La dégradation est une preuve qui
appuie l’idée que les atomes de cuivre de la
bande se font oxyder par la source de courant
et se dissolvent dans la solution électrolytique.
Ceci assure un équilibre dans la réaction, qui
appuie le principe du Châtelier (11). À l’état
d’équilibre, les vitesses de réaction directe et
inverse sont égales, et les concentrations des
réactifs et des produits demeurent constantes.
33
Par ailleurs le courant à travers le
circuit est proportionnel à la vitesse à laquelle
l'anode est dissoute, vitesse qui est égale à
celle à laquelle la cathode est plaquée (12).
Autrement dit, c’est la vitesse à laquelle les
électrons et les ions se déplacent dans le
circuit qui indique la vitesse du processus de
placage (10). Selon la loi des vitesses de
réaction, la concentration influence la vitesse
de réaction (5). À une même température et
pression données, plus la concentration de la
solution électrolytique est grande, plus le
nombre de collisions est élevé,
particulièrement à l’emplacement des
électrodes. Comme dans la plupart des autres
réactions chimiques, la vitesse d'électrolyse
dépend fortement de la concentration de
l'électrolyte. Tous les essais de
l’électrodéposition étaient réalisés dans une
pièce à température ambiante, soit d’environ
25 degrés Celsius, où la pression demeurait
également constante. Selon les données
recueillies, pour un même temps donné,
l’électrodéposition effectuée avec une
concentration plus grande a eu un résultat de
masse déposée plus élevé. La quantité de
masse déposée par seconde est alors
supérieure pour une concentration
électrolytique plus élevée. De plus,
l’abondance de bulles témoigne également de
l’efficacité de la réaction. Les concentrations
plus élevées ont produit plus de bulles que
celles diluées. Plus il y a de bulles, plus la
réaction se déroule à grande vitesse.
En augmentant la concentration des
ions dans la solution, le courant électrique
augmente aussi (2). L’électrolyte CuSO4
choisi pour l’expérience est un électrolyte
fort qui se dissocie entièrement en solution
(5). Le mouvement de ces ions dissociés dans
la solution assure le transport du courant
électrique. La solution électrolytique répond
alors à la loi d’Ohm, soit 𝐼 =𝑉
𝑅 (14). Elle
possède ainsi une résistance électrique (en Ω)
donnée par R, correspondant au quotient de la
différence de potentiel (V en volts) par le
courant (I en ampères). Lorsque je changeais
de concentration pour la solution
électrolytique, j’ai remarqué que la valeur
d’ampères et le voltage changeaient aussi au
moment de démarrer la source de courant. La
concentration affecte donc l’intensité du
courant. Ainsi, je devais modifier
manuellement le nombre d’ampères pour
qu’elle revienne à 0,25 A. Les variables de
l’intensité du courant et du voltage n’étaient
pas très bien contrôlées. Ces incertitudes
influencent potentiellement alors mes
résultats si ce n’est pas seulement la
concentration qui a changé. En effet, on
retrouve cette variable de l’intensité du
courant dans la loi de Faraday.
La résistance de la solution est
souvent un facteur important d’impédance
d'une cellule électrochimique (13). Une
augmentation de la concentration de
l’électrolyte pourrait modifier la résistance
globale de la cellule électrolytique. La
résistance d'une solution ionique dépend de la
concentration ionique, du type d'ions, de la
température et de la géométrie de la zone
dans laquelle le courant est transporté (14).
Les matériaux utilisés comme conducteurs
doivent pouvoir présenter un faible niveau de
résistivité. L'énergie cinétique accrue dans la
solution aide à augmenter la fréquence de
collision des atomes neutres. Plus il y a d’ions
disponibles pour transporter des électrons et
34
créer un amas dense d'eux-mêmes
augmentant le risque de collision plus rapide
pour redémarrer le cycle, plus une solution
saline est conductrice ou moins résistante.
Plus la concentration est faible, plus la
résistance est élevée. Plus la résistance est
élevée, plus le flux de courant sera faible,
pour une tension appliquée donnée. Par
conséquent, une diminution de la
concentration diminue le débit de courant.
Cela réduira le taux de placage, et ainsi la
masse de cuivre plaquée. Cela signifie que
pour obtenir la même quantité de placage, il
faudra plus de temps. Ceci correspond bel et
bien avec ce que j’ai trouvé. Une plus faible
concentration correspond à un plus faible
placage massique que celui d’une
concentration élevée. Au contraire, une
concentration accrue de la solution
électrolytique fournit plus d'ions métalliques
« disponibles » à être plaqués dans la solution
de sorte que la masse de cuivre déposée
devrait augmenter. La résistance influence la
conductivité, puisque cette dernière évolue
inversement à la résistance (15).
De plus, l’augmentation de la
concentration électrolytique pourrait
engendrer une augmentation de la
conductivité. La conductivité d’une solution
correspond à une mesure de la capacité d’un
soluté à transporter une charge (15). Par
rapport aux électrolytes, la conductivité, qui
résulte de la mobilité des ions dans la solution,
est déterminée par la résistance électrique de
la cellule. La conductivité d'une solution
dépend du nombre de porteurs de charge (les
concentrations des ions), de la mobilité des
porteurs de charge et de leur charge. La
conductivité molaire d'une solution
d'électrolyte est définie comme sa
conductivité divisée par sa concentration
molaire. Elle peut être exprimée selon
l’équation Λ𝑚 =𝐾
𝐶, où κ est la conductivité
mesurée (anciennement appelée conductance
spécifique) et C est la concentration molaire
de l'électrolyte (15). La valeur de Λm peut être
comprise comme la conductance d'un volume
de solution entre des électrodes, c’est-à-dire
la facilité avec laquelle un courant électrique
passe, et d'une surface suffisante pour que la
solution contienne exactement une mole
d'électrolyte. Ainsi, si on augmente le nombre
d’ions contenus dans la solution, on
augmente également sa conductivité puisque
le nombre d’ions porteurs de charge
augmente. Plus il y a d'ions en solution, plus
l'électrolyte est fort. Théoriquement, la
conductivité devrait augmenter
proportionnellement à la concentration (16).
En pratique, cela n'est pas vrai. La
concentration et la mobilité des ions ne sont
pas des propriétés indépendantes. Lorsque la
concentration d'un ion augmente, sa mobilité
diminue à cause du pairage entre ions. En
haute concentration, comme dans l’essai avec
le 1,0 M, les ions interagissent davantage
entre eux, ce qui engendre la diminution de
leur capacité à transporter une charge.
Puisque ces ions se rapprochent, ils
commencent à interagir et à se ralentir, de
sorte que la conductivité molaire des ions est
réduite. Les effets de pairage (attraction entre
les ions de charges opposées) et de
polarisation sont les principales causes qui
mènent à cette perte de capacité à conduire le
courant (17). La conductivité augmente avec
la concentration, mais pas de manière
proportionnelle. Ainsi, puisque la pente de
mon graphique est assez faible, mes résultats
35
pourraient appuyer cette idée d’influence
indirecte. Si la conductivité est plus élevée,
l’efficacité du courant augmente aussi. Le
nombre d’électrons qui se déplacent vers la
cathode par seconde est plus élevé. Par
extension, la vitesse d’électrolyse augmente,
ce qui génère une plus grande masse déposée
étant donné qu’il y a plus d’ions cuivriques
qui s’attaquent à la cathode.
Un autre aspect du transfert de masse
est la diffusion (18). La vitesse
d’électrodéposition est déterminée à partir de
la vitesse de diffusion qui se produit pendant
le processus électrochimique (18). La
diffusion se produit en tant que résultat du
gradient de concentration qui s’est formé
dans la solution suite à la migration des ions
(9). Une caractéristique distinctive de la
diffusion est qu'elle entraîne un mélange ou
un transport de masse, sans nécessiter de
mouvement en vrac. La diffusion est
particulièrement importante dans une
expérience d'électrolyse puisque la réaction
de conversion ne se produit qu'à la surface de
l'électrode. Le transfert d'ions conduit à la
formation de minces régions d'électrolyte
adjacentes aux électrodes où il y a des
gradients de concentration ionique (18). La
concentration au-delà des régions, c’est-à-
dire en solution, est constante par rapport à la
distance des électrodes (19). À l'intérieur de
la couche de diffusion cathodique, la
concentration en ions métalliques diminue
vers la surface de la cathode puisqu’ils sont
réduits et deviennent des atomes de cuivre. À
la surface de l'anode où le métal s’oxyde et se
dissout dans l'électrolyte, la concentration en
ions de cuivre est plus élevée que dans la
solution. Par conséquent, il y aura une
concentration de réactif plus faible au niveau
de l'électrode que dans la solution, puisque
les électrons des atomes de cuivre sont
continuellement « arrachés » par le courant.
De même, une concentration plus élevée de
produit n’existera près de l'électrode que plus
loin dans la solution. La diffusion des ions à
travers les couches contrôle le transfert de
matière et la vitesse de dépôt selon la
première loi de Fick, soit 𝐽 = −𝐷𝑑𝐶
𝑑𝑥 (19). J
représente le flux des ions dans la direction x,
C est la concentration d’ions selon x (la
distance de la surface de la cathode) et D est
le coefficient de diffusion des ions dans
l’électrolyte. Le flux de diffusion est
proportionnel au gradient négatif des
concentrations (18). La diffusion des ions fait
référence à la tendance des ions à se déplacer
des régions de concentration élevée vers les
régions de concentration plus faible (19).
Dans mon expérience, pour un même temps
donné, la concentration la plus élevée
engendre une masse déposée plus élevée que
celle de la concentration plus faible. Ainsi, le
flux de diffusion devient plus grand lorsque
la différence de concentration devient plus
élevée. La perte et le gain d’électrons se font
plus rapidement, ce qui augmente la masse
déposée. La cohérence de mes résultats
confirme alors mon hypothèse de départ.
Avec une solution électrolytique concentrée,
la quantité de métal plaqué est supérieure à
celle avec une solution diluée.
Malgré le fait que ma recherche ne
concorde pas avec la loi de Faraday, il existe
plusieurs facteurs qui expliqueraient
l’influence probable de la concentration sur la
masse déposée.
36
Conclusion
Le but de cette recherche
expérimentale était de vérifier si la
concentration de la solution électrolytique de
CuSO4(aq) avait une influence sur la masse de
cuivre déposée sur la cathode suite à une
réaction d’électrodéposition. J’ai réussi à
répondre à ma question de recherche en
obtenant une relation linéaire entre la
concentration et la masse déposée. La masse
de cuivre déposée à la cathode augmente
proportionnellement avec l’augmentation de
la concentration de solution électrolytique.
En effet, en comparant avec la valeur de la
littérature calculée selon la loi de Faraday,
soit de 0,015 g (3). Les masses déposées
moyennes 0,002 g, 0,009 g, 0,017 g et 0,034
g sont assez significatives puisqu’elles
sortent des limites de l’incertitude de 0,002 g,
à l’exception de la valeur obtenue avec la
concentration de 0,1 M. Ces résultats
affirment donc que la concentration porte une
influence sur la masse cuivrique déposée.
Cependant, les facteurs de courant et de
voltage n’étaient pas contrôlés à 100 %.
Malgré le fait que ma question de recherche
soit répondue, les incertitudes sur ces facteurs
ne me permettent pas de remettre en question
la loi de Faraday. Même si mes valeurs ne
concordent pas exactement avec celle de la
théorie, il existe d’autres facteurs qui
pourraient expliquer cette augmentation
massique de manière indirecte, comme la
conductivité de la solution, la résistance de la
cellule électrolytique et le principe de
diffusion (16-19). Cependant, puisque cette
réaction se faisait rapidement, il aurait été
intéressant de la vérifier sur une longue
période de temps pour voir s’il y aurait eu un
plateau atteint ou une différente tendance
obtenue. Les résultats de cette recherche ne
peuvent être comparés à ceux de d’autres
sources à cause du manque d’articles
scientifiques sur ce domaine et ce sujet. Ainsi,
elle présente un point de départ dans la
recherche de l’influence des facteurs exclus
de la loi d’électrodéposition, telle celle de
Faraday.
37
Effet de la température sur la cinétique de la réaction
d’oxydation de l’ion iodure et du persulfate
Par : Laure Salmon
Révision scientifique : Louise Boisvert
Introduction et question de
recherche
Si les réactions chimiques, telles que
la production de verre ou d’alcool, sont
connues depuis longtemps et font partie de
notre quotidien, ce n’est que récemment que
leurs mécanismes ont commencé à être
compris. En effet, il est difficile d’étudier la
cinétique de réactions chimiques s’effectuant
à l’échelle moléculaire. Or, certaines
réactions, parce qu’elles produisent des
changements visibles, ont permis des
avancées considérables en chimie. C’est
notamment le cas de la réaction entre l’iode
et l’amidon, à l’origine de l’horloge chimique
découverte par Hans Heinrich Landolt en
1886 (1). En effet, ces deux réactifs, incolores,
réagissent ensemble pour former un
complexe bleu foncé, permettant ainsi de
suivre le déroulement de la réaction. Le
thème de ma recherche sera donc l’étude
cinétique de cette réaction et l’influence de
certains facteurs sur celle-ci. Ma question de
recherche, basée sur les propriétés chimiques
et physiques de la réaction entre l’iode et
l’amidon, consistera à étudier l’effet de la
température sur la cinétique de la réaction
d’oxydation de l’ion iodure et du persulfate.
Théorie nécessaire pour les calculs
La réaction d’oxydation de l’ion
iodure provenant du KI, avec du persulfate
provenant du Na2S2O8 , est une réaction
produisant de l’iode et du sulfate selon
l’équation suivante (3) :
(1) 2𝐼−(𝑎𝑞) + 𝑆2𝑂82−
(𝑎𝑞)→ 𝐼2(𝑎𝑞) +
2𝑆𝑂42−
(𝑎𝑞)
La concentration d’iode à différents
instants de la réaction peut être déterminée
par titrage, à l’aide de thiosulfate, puisque
celui-ci réagit avec l’iode selon l’équation
suivante (3) :
(2) 𝐼2(𝑎𝑞) + 2𝑆2𝑂32−
(𝑎𝑞)→ 2𝐼−(𝑎𝑞) +
𝑆4𝑂62−
(𝑎𝑞)
Si de l’amidon est ajouté, l’iode
réagira avec celui-ci et formera un complexe
bleu foncé (3). Ainsi, la solution de titrage
sera initialement bleue foncée, et elle ne
deviendra incolore que lorsque l’iode aura
complètement réagit avec le thiosulfate,
indiquant le point d’équivalence. Le volume
de S2O32− permettra ensuite de déterminer la
concentration d’I2 et de S2O82− à différents
instants, grâce à des calculs stœchiométriques.
38
La réaction entre l’ion iodure et le
persulfate étant d’ordre 1 (3), la loi de vitesse
intégrée est :
(3) ln[𝑆2𝑂82−]
𝑡= −𝑘𝑡 + ln [𝑆2𝑂3
2−]0
Ainsi, un graphique présentant
𝑙𝑛[𝑆2𝑂82−] en fonction du temps sera
linéaire, la pente de celui-ci correspondant à
−𝑘 . Représentative de la vitesse d’une
réaction, la constante de vitesse 𝑘 permettra
de comparer la vitesse des réactions à
différentes températures. En effet, plus une
réaction est rapide, plus la proportion de
réactifs se transformant en produits à chaque
instant est grande. Ainsi, pour une même
concentration initiale de S2O82−, la constante
𝑘 sera plus grande.
Bien que les constantes obtenues
soient apparentes et ne correspondent pas
exactement à la constante 𝑘 , les constantes
aux deux températures le seront et il sera
donc possible de les comparer. Ce n’est pas
requis par ma question de recherche, mais,
ayant les données nécessaires, je calculerai
ensuite l’énergie d’activation de la réaction
avec la loi d’Arrhenius (2) :
(4) 𝑙𝑛𝑘2
𝑘1=
𝐸𝑎
𝑅[1
𝑇1−
1
𝑇2]
Cela me permettra de vérifier
l’exactitude de mes résultats puisque, si ma
méthode est fiable, l’énergie d’activation
obtenue devrait correspondre à celle de la
littérature, de 51,8 kJmol−1 (5).
Hypothèse
Selon la littérature, pour qu’une
réaction ait lieu, il faut qu’il y ait une
collision efficace, soit une collision entre des
particules ayant l’énergie minimale requise
pour atteindre le complexe activé et former
les produits, énergie nommée énergie
d’activation. Or, selon la courbe de Maxwell-
Boltzmann, les particules d’une substance
n’ont pas toutes la même énergie et les
collisions ne sont donc pas toutes efficaces.
Ainsi, puisque la température est une mesure
de l’agitation des particules, si la température
augmente, l’énergie des particules augmente
et, en conséquence, davantage de particules
ont l’énergie minimale requise et la
proportion de collisions efficaces augmente
(2). Or, si davantage de réactifs se
transforment en produits à chaque instant
donné, cela signifie que la vitesse de réaction
est plus grande. La réaction effectuée à une
température plus élevée devrait donc être plus
rapide, ce qui se percevrait par une constante
de vitesse plus élevée et donc une pente de
graphique plus abrupte.
Variables de l’expérience
Lors de l’expérience, il y aura
plusieurs variables à contrôler, comme la
quantité initiale des réactifs, qui sera gardée
constante en mesurant la quantité des réactifs
à l’aide de pipettes volumétriques précises, et
la température, gardée constante en ajustant
constamment la température de la plaque
chauffante en fonction des valeurs données
par un thermomètre plongé dans le mélange
réactionnel tout au long de la réaction.
39
Analyse
Données quantitatives
Température de la réaction (T) (± 0,5 °C) Constante de vitesse (k)
24,5 0,000915
50,0 0,00260
TABLEAU I : Constantes de vitesse (k) en fonction de la température de la réaction
Calcul de l’énergie d’activation de la réaction, grâce à la loi d’Arrhenius :
𝑙𝑛𝑘2
𝑘1=
𝐸𝑎
𝑅[1
𝑇1−
1
𝑇2]
𝑙𝑛0,00260
0,000915=
𝐸𝑎
8,314[
1
297,65−
1
323,15] ≈ 32,8 kJ
Graphique des résultats
Observation des résultats
Les résultats de concentration de
S2O8−2 obtenus montrent que, lors de la
réaction à plus haute température, la
concentration diminue beaucoup plus
rapidement. À titre d’exemple, lors de la
réaction à 50 °C, à 11,25 minutes (675
secondes), la concentration de S2O8−2 n’est
plus que de 0,000820 M et la réaction peut
40
être considérée comme terminée, puisque la
concentration a atteint un plateau et qu’à
16,47 minutes (988 secondes), elle est encore
de 0,000820 M. Or, pour la réaction à 24,5 °C,
à 11,55 minutes (693 secondes), elle est
encore de 0,0074 M et après 35,47 minutes,
la concentration est de 0,00212 (2128
secondes) et elle n’a pas atteint de plateau,
signifiant que la réaction n’est pas
complètement terminée.
Sur le graphique, on voit que la droite
obtenue à haute température est beaucoup
plus abrupte que celle à 24,5 °C, ce qui
signifie que la constante 𝑘 et plus élevée. En
effet, la constante 𝑘 obtenue dans le
graphique est de 0,000915 pour la réaction à
24,5 °C et de 0,00260 pour la réaction à 50 °C.
Bien que la constante obtenue soit une
constante apparente, ne correspondant pas
exactement à la constante 𝑘, il est possible de
faire une comparaison fiable, puisque les
deux constantes sont apparentes. Ainsi, la
constante 𝑘 est beaucoup plus élevée lors de
la réaction à 50 °C, ayant augmenté d’environ
64,5 % par rapport à la réaction à 24,5 °C.
L’énergie d’activation obtenue est également
de 32,8 kJ.
Évaluation
La question de recherche était de
déterminer l’effet de la température sur la
cinétique de la réaction d’oxydation de l’ion
iodure et du persulfate. Les résultats montrent
que l’augmentation de la température fait
augmenter la constante 𝑘 , qui passe de
0,000915 à 0,00260, et par conséquent la
vitesse de la réaction, ce qui est en en accord
avec la théorie. En effet, selon la littérature
(2), une augmentation de la constante signifie
que la vitesse de réaction est plus grande et
donc que la proportion de réactifs se
transformant en produit est plus grande. Ainsi,
davantage de particules ont l’énergie
d’activation. Puisque la température est le
seul facteur ayant varié, cela signifie que la
température, qui se traduit par une
augmentation de l’agitation des particules, a
augmenté l’énergie des particules de réactifs
et a donc accéléré la réaction. L’énergie
d’activation obtenue, de 32,8 kJ , se
rapproche de la valeur de la littérature, de
51,8 kJ (5), signifiant que les valeurs de 𝑘
sont assez faibles, bien qu’il y ait un écart en
raison des erreurs expérimentales.
La méthode employée lors de
l’expérience était fiable pour plusieurs
raisons. Tout d’abord, lorsque la réaction a
été effectuée à 50 °C, la température, l’une
des variables à contrôler, est restée assez
constante tout au long de la réaction, ne
variant qu’entre 48 °C et 52 °C, ce qui est
près de 50 °C.
De plus, la méthode graphique
utilisée pour déterminer la constante 𝑘 était
fiable. En effet, cette constante aurait pu être
calculée de différentes façons, notamment
par l’équation de demi-vie ou la loi de vitesse
(2). Or, ces autres méthodes auraient manqué
de fiabilité, puisqu’elles n’auraient utilisé la
concentration de 𝑆2𝑂8−2 qu’à un seul instant.
En créant un graphique de pente 𝑘 à l’aide de
toutes les données de concentrations, la
constante prenait donc en compte l’ensemble
des valeurs de concentration, minimisant
l’erreur sur les résultats.
41
L’ajout d’amidon à la solution de
titrage rend aussi le changement de couleur
très visible, me permettant d’être très précise
lors de mon titrage. En effet, j’aurais pu ne
pas en utiliser, la solution d’iode ayant déjà
une teinte orangée, mais il aurait été difficile
de déterminer le point d’équivalence,
d’autant plus qu’elle était diluée dans
l’erlenmeyer de titrage et donc que la teinte
était très légère.
Toutefois, malgré ses points forts, la
méthode d’expérimentation n’est pas
exempte de lacunes et a des limites. Tout
d’abord, en raison des contraintes de temps,
l’expérience n’a été réalisée qu’à deux
températures différentes, ce qui est peu pour
déterminer l’effet de la température, car je
n’avais que deux valeurs à comparer. Or, il
aurait été plus fiable de faire une analyse
graphique avec plus de températures, en
traçant un graphique de 𝑘 en fonction de la
température, ce qui m’aurait permis d’obtenir
une relation précise entre la température et la
vitesse de réaction et de décrire comment la
vitesse augmente avec la température. Par
contre, la réaction étant rapide, il n’aurait pas
été possible de réaliser l’expérience à haute
température, car il n’y aurait pas eu assez de
temps pour faire les titrages. En effet, à 50 °C,
la réaction était déjà presque complète après
10 minutes. Une amélioration possible aurait
donc été d’effectuer la réaction à une
température plus froide, en plongeant
l’erlenmeyer dans un bain de glace. Toutefois,
il aurait été plus difficile de maintenir la
température constante que lorsque je
chauffais, rendant mes résultats moins fiables.
Un autre point faible est que la
méthode employée pour déterminer la vitesse
de réaction, le titrage avec du thiosulfate, ne
permettait pas d’obtenir plusieurs mesures
par temps, puisque je ne pouvais faire qu’un
titrage à chaque fois, rendant mes volumes
moins fiables. Faire plus d’un titrage m’aurait
effectivement permis de faire la moyenne des
volumes obtenus, réduisant l’erreur sur les
valeurs. Il aurait donc été préférable de faire
deux prélèvements simultanés à chaque
temps, bien que cela ne fût pas possible
puisque je réalisais les manipulations seule.
Or, comme je n’utilisais pas directement ces
valeurs et je m’en servais uniquement pour
tracer une droite permettant de déterminer la
valeur de la constante 𝑘, elles n’avaient pas
besoin d’être prises exactement en même
temps. De plus, refaire plus d’une fois le
titrage à chaque température aurait été
suffisant pour avoir plus de données et ainsi
minimiser l’impact de l’erreur sur les
volumes afin d’avoir des valeurs de
constantes 𝑘 plus précises.
Par ailleurs, pour déterminer l’effet de
la température sur la vitesse de réaction, le
titrage à l’aide du thiosulfate n’est pas la
seule façon. À titre d’exemple, j’aurais pu
titrer avec du Ba(NO3)2 afin de déterminer la
concentration de SO4−2 dans la solution et
ainsi la concentration de S2O8−2 , les deux
réactifs réagissant ensemble pour former du
BaSO4 insoluble (7).
(5) 𝑆𝑂4−2
(𝑎𝑞) + 𝐵𝑎(𝑁𝑂3)2(𝑎𝑞)→
𝐵𝑎𝑆𝑂4(𝑠) + 2𝑁𝑂3−1
(𝑎𝑞)
Outre un titrage, j’aurais pu faire
réagir le sulfate avec du Na2SO3 en milieu
42
acide (9), ce qui aurait dégagé un gaz, le SO2,
dont j’aurais pu mesurer la pression pour
ensuite calculer la quantité de SO4−2.
(6) 𝑁𝑎2𝑆𝑂3(𝑎𝑞)+ 𝐻2𝑆𝑂4(𝑎𝑞) →
𝑁𝑎2𝑆𝑂4(𝑎𝑞) + 𝐻2𝑂(𝑙) + 𝑆𝑂2(𝑔)
Conclusion
Pour conclure, la température a
favorisé la vitesse réaction d’oxydation de
l’ion iodure et du persulfate, puisqu’elle a été
beaucoup plus rapide à 50 °C qu’à 24,5 °C.
L’étude cinétique de réactions comme celle-
ci permet de mieux comprendre l’influence
de certains facteurs, comme la température, et
donc de mieux contrôler les réactions afin de
les rendre plus efficaces, un avantage
technologique considérable. En effet, varier
la température de seulement quelques degrés
peut rendre la réaction beaucoup plus rapide.
Cela ouvre aussi la porte à d’autres
recherches, qui pourraient étudier l’influence
de la pression, d’un catalyseur ou de la
concentration des réactifs.
43
Bibliographie
Le paradoxe apparent de la trompette de Torricelli : une aire infinie pour un volume fini?
1- Mancosu P, Vailati E. Torricelli's Infinitely Long Solid and Its Philosophical Reception in the
Seventeenth Century. Isis [En ligne]. 1991;82(1):50-70. Disponible:
https://www.jstor.org/stable/233514?seq=1
2- That’s Maths [En ligne]. Torricelli’s Trumpet & the Painter’s Paradox; 2017 [cité le 9 février
2019]. Disponible: https://thatsmaths.com/2017/04/13/torricellis-trumpet-the-painters-
paradox/
3- GeoGebra [En ligne]. Torricelli’s Trumpet; s.d. [cité le 9 février 2019]. Disponible:
https://www.geogebra.org/m/xFxrPaZf
4- Gaur Y, Bhullar J, Das R, Jain A. Torricelli’s Trumpet: a paradox. Éclat Mathematics Journal
[En ligne]. 2015;6:67-69. Disponible: https://lsr.edu.in/wp-
content/uploads/2019/10/%C3%89clat-06-2014-15.pdf#page=83
5- Desmos [En ligne]. Torricelli’s Trumpet; s.d. [cité le 4 avril 2020]. Disponible:
https://www.desmos.com/calculator
Un petit guide pour votre prochain achat d’ordinateur
1- RAM en informatique : définition technique et rôle [En ligne]; s.d. [cité le 26 février 2021].
Disponible: https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1445196-
ram-en-informatique-definition-technique-et-role/
2- Le Crabe [En ligne]. Le rôle des processeurs et de leurs cœurs. Lecrabeinfo; 29 mars 2017 [cité
le 26 février 2021]. Disponible: https://lecrabeinfo.net/le-role-des-processeurs-et-de-leurs-
coeurs.html#a-quoi-peut-me-servir-plusieurs-coeurs
3- Girbea A. Intel Core i7-10875H (8 Core, 10th gen) laptops – the complete list [En ligne].
ULTRABOOKREVIEW.COM; 26 août 2020 [cité le 26 février 2021]. Disponible:
https://ultrabookreview.com
4- Kasper. Coolblue [En ligne]. Quelle carte graphique me faut-il dans mon ordinateur portable?;
26 juin 2020 [cité le 26 février 2021]. Disponible: https://www.coolblue.be/fr/conseils/quelle-
carte-graphique-choisir-pour-pc-portable.html
5- GAMERTECH [En ligne]. Comparatif carte graphique; 4 septembre 2020 [cité le 26 février
2021]. Disponible: https://www.gamertech.fr/carte-graphique/
6- Conreaux L. ToucheDeClavier.com [En ligne]. Les différences entre un disque dur HDD et
SSD ?; 28 juin 2017 [cité le 26 février 2021]. Disponible:
https://blog.touchedeclavier.com/differences-entre-disque-dur-hdd-ssd/.
44
7- Harding S. Tom’s Hardware [En ligne]. What Is a CPU Core? A Basic Definition; 23 août
2018 [cité le 26 février 2021]. Disponible: https://www.tomshardware.com/news/cpu-core-
definition,37658.html
Le système dynamique chaotique du double pendule
1- Lurçat F. Le chaos. puf. Collection Que sais-je? 1999.
2- Gupta MK, Bansal K, Singh AK. Mass and Length Dependent Chaotic Behavior of a Double
Pendulum. IFAC Proceedings [En ligne]. 2014;47(1): 297-301. DOI: 10.3182/20140313-3-IN-
3024.00071
3- Shinbrot T, Grebogi C, Wisdom J, Yorke J. Chaos in a double pendulum. American Journal of
Physics [En ligne]. 1992;60(6):1-9. DOI: 10.1119/1.16860
4- Jacquier N. Le pendule double, un système chaotique [Maturité gymnasiale, Gymnase
intercantonal de la Broye]. 2010. Disponible:
https://njaquier.ch/files/PenduleDouble_Jaquier.pdf
5- Van Opstalll M. Quantifying chaos in dynamical systems with lyapunov exponent. Electronic
Journal of Undergraduate Mathematics [En ligne]. 1998;4(1):1-8. Disponible:
https://scholarexchange.furman.edu/fuejum/vol4/iss1/1
6- Roess D. Double pendulum with external drive [simulation numérique]. [Lieu inconnu]:
National Taiwan Normal University; 2009. Disponible:
http://www.phy.ntnu.edu.tw/ntnujava/EjsDL/getOSP.php?type=OSPSubjectDetailDetail&val
ue=1160
7- Rafat MZ, Wheatland MS, Bedding TR. Dynamics of a double pendulum with distributed
mass. American Journal of Physics [En ligne]. 2008;77(3):1-20. DOI: 10.1119/1.3052072
8- Akerlof CW. Chaotic motion of a double pendulum. [Notes de cours en ligne]. University of
Michigan (MI); 2012. Disponible: http://instructor.physics.lsa.umich.edu/adv-
labs/Chaotic%20Double%20Pendulum/Pendulum_2012_09_26.pdf
Le mouvement d’un avion correspond-il aux équations de physique en aéronautique?
1- Marc B. Vols historiques des frères Wright. Dans: Encyclopædia Universalis; [cité le 20 février
2021]. Disponible: http://www.universalis.fr/encyclopedie/vols-historiques-des-freres-wright/
2- Moulinsard E. Histoire pour tous [En ligne]. Premier avion — Histoire de l’aviation; s.d. [cité
le 20 février 2021]. Disponible: https://www.histoire-pour-tous.fr/inventions/2710-invention-
avion.html
3- Petit E, Sparaco P. Aviation — Histoire de l’aviation. Dans: Encyclopædia Universalis; [cité
le 20 février 2021]. Disponible: http://www.universalis.fr/encyclopedie/aviation-histoire-de-l-
aviation/
4- NASA. Mars exploration program [En ligne]. The red planet; s.d. [cité le 20 février 2021].
Disponible: https://mars.nasa.gov/#red_planet/5
45
5- MacDonald AF. From the Ground Up. 29e éd. Canada: Aviation Publishers Co. Limited; 2017.
6- Benson H. Physique 1: Mécanique. 5e édition. ERPI; 2015.
7- The engineering toolbox [En ligne]. Drag coefficient; 2004 [cité le 20 février 2021].
Disponible: https://www.engineeringtoolbox.com/drag-coefficient-d_627.html
8- Pilot operator handbook. Piper Arrow. Canada: Collège Air Richelieu; 2019.
9- PHYSAGREG [En ligne]. Cours de mécanique; s.d. [cité le 20 février 2021]. Disponible:
https://physagreg.fr/mecanique/m12/M12-chute-libre-frottements.pdf
10- Ibrahim W, Garry T, Nakamoto J, Frederick K, Lumb S. Mathematics: applications and
interpretation for the IB diploma. Pearson ERPI; 2019.
11- Jenn. CalcWorkshop [En ligne]. How to do Euler’s method; 2019 [cité le 20 février 2021].
Disponible: https://calcworkshop.com/first-order-differential-equations/eulers-method-table/
L’effet de la concentration sur la masse déposée durant l’électrodéposition
1- Global Newswire [En ligne]. Global Electroplating Market is poised to reach US$ 21.9 billion
by 2027, Says CMI; s.d. [cité le 31 octobre 2021]. Disponible:
https://www.globenewswire.com/news-release/2020/04/24/2021721/0/en/Global-
Electroplating-Market-is-poised-to-reach-US-21-9-billion-by-2027-Says-CMI.html
2- Brenner A. Electrodeposition of alloys: Principles and practice. New York et Londres:
Academic Press; 1963.
3- Darrigol O. Les équations de Maxwell: De MacCullagh à Lorentz. Paris: Belin; 2005.
4- Mohanty US. Electrodeposition: Properties, processes, and applications. New York: Nova
Science Publishers Inc.; 2012.
5- Plieth W. Electrochemistry for materials science. Amsterdam: Elsevier Science; 2008.
6- Holmquist DD, Randall J, Volz DL. Advanced chemistry with Vernier. Beaverton: Vernier
Software and Technology; 2015.
7- Rendall J. Advanced chemistry with Vernier. Beaverton: Vernier Software & Technology;
2006.
8- IUPAC. Periodic table of elements [cité le 20 novembre 2020]. Disponible:
https://iupac.org/what-we-do/periodic-table-of-elements/
9- Roy E. Élaboration électrochimique et caractérisations de nanofils d’antimoine et d’or.
Physique. Mémoire. Marne la Vallée : Université de Marne la Vallée; 2002.
10- Kanani N. Electroplating: Basic principles, processes and practice. Amsterdam: Elsevier;
2004.
11- Dini JW. Electrodeposition: The materials science of coatings and substrates. Park Ridge:
Noyes Publications; 1992.
12- West JM. Electrodeposition and corrosion processes. 2e ed. New York: Van Nostrand
Reinhold; 1971.
13- Puippe JC, Leaman F. Theory and practice of pulse plating. Orlando: AESF; 1986.
46
14- Su L, Liao X, Huang Z. A theoretical study on resistance of electrolytic solution: Measurement
of electrolytic conductivity. Results in Physics. 2019; 13; 102274.
15- Sun CW, Hsiau SS. Effect of electrolyte concentration difference on hydrogen production
during PEM electrolysis. Journal of Electrochemical Science and Technology [En ligne].
2018;9:99-108. DOI: 10.5229/JECST.2018.9.2.99
16- Nguyen NL, Phan, CH, Le AD, Dang MD, Dang MC. Optimization of copper electroplating
process applied for microfabrication on flexible polyethylene terephthalate substrate.
Advances in Natural Sciences: Nanoscience and Nanotechnology. 2015;6(3):035007.
17- Liu T. Electrodéposition de couches minces métalliques à partir de solutions de liquides
ioniques pour des applications électroniques. Thèse de doctorat. Bordeaux: Université de
Bordeaux; 2014.
18- Kao YL, Tu GC, Huang CA, Chang JH. The annealing behavior
of copper deposit electroplated in sulfuric acid bath with various concentrations of thiourea.
Materials Science & Engineering: A. 2004;382:104-111. 14249056.
19- Schuldiner S, Rosen M. The exchange current density vs. concentration relation and its use in
a rigorous determination of solution purity. Journal of Electroanalytical Chemistry and
Interfacial Electrochemistry [En ligne]. 1972;35:1-6. DOI: 10.1016/S0022-0728(72)80287-0
Effet de la température sur la cinétique de la réaction d’oxydation de l’ion iodure et du
persulfate
1- Hill JW, Pettrucci RH, McCreary TW, Perry SS. Chimie des solutions. 2e éd. Pearson: Éditions
du Renouveau Pédagogique; 2008.
2- Landolt H. Ueber die Zeitdauer der Reaction zwischen Jodsäure und schwefliger Säure [On
the duration of the reaction between iodic acid and sulfurous acid]. Berichte der Deutschen
Chemischen Gesellschaft. 1886;19(1):1317–1365. DOI: 10.1002/cber.188601901293
3- Advanced Instructional Systems, Inc. [En ligne]. Chemical Kinetics. North Carolina State
University: North Carolina; 2013 [cité le 20 février 2021]. Disponible:
https://www.webassign.net/question_assets/ncsugenchem202labv1/lab_11/manual.pdf.
4- Lavise [En ligne]. Énergie d’activation de la réaction de l’horloge à l’iode; s.d. [cité le 20
février 2021]. Disponible: http://www.lavise.fr/fiches/61769.html
5- Sodium persulfate; MSDS No. T-7775-27-1; Fisher Scientific: Fair Lawn, NJ; 18 janvier 2018
[cité le 20 février 2021]. Disponible:
https://www.fishersci.com/store/msds?partNumber=O6114500&productDes
cription=SODIUM+PERSULFATE+CERT+500G&vendorId=VN00033897&countryCode=
US&language=en
6- Sodium thiosulfate; MSDS No. T-7772-98-7; Fisher Scientific: Fair Lawn, NJ; 17 janvier 2018
[cité le 20 février 2021]. Disponible:
https://www.fishersci.ca/shop/msdsproxy?productName=S4463&productDes
cription=sodium-thiosulfate-anhydrous-certified-fisher-chemical-2
47
7- Potassium iodate; MSDS No. T-7758-05-6; Fisher Scientific: Fair Lawn, NJ; 17 janvier 2018
[cité le 20 février 2021]. Disponible:
https://www.fishersci.ca/store/msds?partNumber=P253100&productDescription=p otassium-
iodate-powder-certified-acs-fisher-chemical2&language=en&countryCode=CA.
8- University of Richmond [En ligne]. Preparation and properties of pollutant gases; s.d. [cité le
20 février 2021]. Disponible:
https://facultystaff.richmond.edu/~cstevens/110/Resources/Expt_Pollutant_Gases.pdf.
9- Summers V. Sciencing [En ligne]. Braium nitrate & sodium sulphate; 25 avril 2017 [cité le 20
février 2021]. Disponible: https://sciencing.com/barium-nitrate-sodium-sulphate-
6506618.html