thèse dauphine - nombreux documents chercheurs +

300
UNIVERSITE PARIS DAUPHINE UFR SCIENCES DES ORGANISATIONS CREPA, CENTRE DE RECHERCHE EN MANAGEMENT ET ORGANISATION DAUPHINE RECHERCHES EN MANAGEMENT-CNRS UMR 7088 N° attribué par la bibliothèque THESE Pour l’obtention du titre de DOCTEUR EN SCIENCES DE GESTION (arrêté du 30 mars 1992) Présentée et soutenue le 22 novembre 2006 par Fatma FOURATI VEILLE STRATEGIQUE : L’EVALUATION DE L’UTILISATION DES AGENTS INTELLIGENTS TOME 1 : Document principal JURY Directeurs de thèse : Monsieur Smaïl GOUMEZIANE Professeur, Université Paris Dauphine Monsieur Michel KALIKA Professeur, Université Paris Dauphine Rapporteurs : Monsieur Moez LIMAYEM Professeur, HEC Lausanne Monsieur Marc FAVIER Professeur, IUT 2 GEA Grenoble Suffragant : Monsieur Jean DESMAZES Professeur, IAE de Tours INVITES Monsieur Emmanuel MONOD Monsieur Bernard GOLDFARB Professeur, Université Paris Dauphine Professeur, Université Paris Dauphine

Transcript of thèse dauphine - nombreux documents chercheurs +

Page 1: thèse dauphine - nombreux documents chercheurs +

UNIVERSITE PARIS DAUPHINE UFR SCIENCES DES ORGANISATIONS

CREPA, CENTRE DE RECHERCHE EN MANAGEMENT ET ORGANISATION DAUPHINE RECHERCHES EN MANAGEMENT-CNRS UMR 7088

N° attribué par la bibliothèque

THESE

Pour l’obtention du titre de

DOCTEUR EN SCIENCES DE GESTION (arrêté du 30 mars 1992)

Présentée et soutenue le 22 novembre 2006 par

Fatma FOURATI

VEILLE STRATEGIQUE : L’EVALUATION DE L’UTILISATION

DES AGENTS INTELLIGENTS

TOME 1 : Document principal

JURY

Directeurs de thèse : Monsieur Smaïl GOUMEZIANE Professeur, Université Paris Dauphine Monsieur Michel KALIKA Professeur, Université Paris Dauphine

Rapporteurs : Monsieur Moez LIMAYEM Professeur, HEC Lausanne Monsieur Marc FAVIER Professeur, IUT 2 GEA Grenoble

Suffragant : Monsieur Jean DESMAZES Professeur, IAE de Tours

INVITES Monsieur Emmanuel MONOD Monsieur Bernard GOLDFARB Professeur, Université Paris Dauphine Professeur, Université Paris Dauphine

Page 2: thèse dauphine - nombreux documents chercheurs +

À mes parents, À ma sœur et mon frère,

Aux mémoires de mon grand-père, ma tante et mon oncle.

Page 3: thèse dauphine - nombreux documents chercheurs +

Remerciements

Remerciements Cette thèse n’aurait pu aboutir sans les implications multiformes de tous ceux qui m’ont accompagnée tout au long de ces années de recherche. Les remerciements présentés ci-dessous leur expriment toute ma reconnaissance.

Tout d’abord, je tiens à remercier mes deux directeurs de thèse, Messieurs Smaïl Goumeziane et Michel Kalika, Professeurs à l’Université de Paris Dauphine, qui ont dirigé avec rigueur, patience et confiance, cette recherche en me prodiguant conseils et encouragements, tout en me laissant une grande liberté dans mes choix théoriques et méthodologiques.

Mes remerciements vont aussi à Messieurs Moez Limayem, Professeur à HEC Lausanne, et Marc Favier, Professeur à l’IUT 2 GEA Grenoble, qui ont accepté la lourde tâche de rapporteurs de cette thèse.

Je n’oublie pas non plus, Monsieur Bernard Goldfarb, Professeur à l’Université Dauphine, qui m’a aimablement accueilli pour valider les résultats statistiques de ce travail, ainsi que Monsieur Emmanuel Monod, Professeur à l’Université Paris Dauphine, qui m’a facilité l’accès au terrain.

Merci également à Madame Catherine Pardoux, Professeur à l’Université Dauphine, qui a bien voulu m’orienter dans le traitement et l’interprétation des données empiriques de cette étude.

Ensuite, mes remerciements s’adressent à tous les professionnels qui ont permis l’accès à diverses informations, ou qui ont donné de leur temps pour répondre à mes interviews : Messieurs Ahmed Fourati, Georges Chabert, Alessandro Zanasi, Jean François David, Georges Miss Nseké, …

J’adresse mes remerciements aux Professeurs Andrew Schwarz, Detmar Straub, Lassaâd Mezghani pour le temps qu’ils m’ont consacré et la pertinence de leurs conseils.

Je ne peux non plus oublier l’assistance de tout le personnel du CREPA et de la bibliothèque de l’Université Paris Dauphine, et notamment : Madame Ana Drumea, secrétaire du CREPA, qui a toujours accepté avec un grand plaisir et une infinie patience, de répondre à mes questions parfois inintelligibles ; Madame Nathalie Perrichon, ingénieur statisticien du CREPA, toujours disponible pour résoudre les problèmes liés au fonctionnement du laboratoire ; et spécialement Isabelle, notre documentaliste.

Pour finir, je tiens à remercier toute ma famille, mes proches et amis : tout d’abord, mon père et ma mère, qui ont financé ce travail de recherche et m’ont toujours encouragée et entourée de leur affection tout au long de ces années, et à qui je dédie cette thèse ; ensuite ma sœur Samia, mon frère Ali et mon fiancé Noamen ; enfin, Mustapha & Juliette, Ahmed & Rim, Olfa, Jacqueline, Olga, Rim, Chiraz, Najoua, Lobna, Béatriz, Riham, Hayet, Linda, Monia, Nihel, Nabila, Latéfa Loréa, Hanen, Judith, Marie, Safiétou, Sabrina, Aïcha, Fatma, Raphaël, Anthony, Mohamed, Soufiane, Hatem, Lotfi, Mondher, Ilyèss, … pour leur soutien et leur aide.

Page 4: thèse dauphine - nombreux documents chercheurs +

L’université n’entend donner aucune approbation ni improbation aux opinions émises dans

cette thèse : ces opinions doivent être considérées comme propres à leur auteur.

Page 5: thèse dauphine - nombreux documents chercheurs +

Sommaire REMERCIEMENTS................................................................................................................... 1 SOMMAIRE ............................................................................................................................. 2 INTRODUCTION GENERALE ................................................................................................... 3

PARTIE 1................................................................................................................................ 11

PRESENTATION DU CADRE THEORIQUE DE LA RECHERCHE........................... 11

CHAPITRE 1...................................................................................................................... 12 PROCESSUS DE VEILLE STRATEGIQUE ET SYSTEMES D’INFORMATION : EVOLUTION DES CONCEPTS THEORIQUES....................................................................................................... 12 CHAPITRE 2...................................................................................................................... 49 TECHNOLOGIE DES AGENTS INTELLIGENTS : CARACTERISTIQUES ET APPLICATIONS...... 49 CHAPITRE 3...................................................................................................................... 89 DIMENSIONS THEORIQUES DE L’INTERACTION HOMME-MACHINE DANS LE MANAGEMENT DES SYSTEMES D’INFORMATION .......................................................................................... 89

SYNTHESE DE LA PARTIE 1. STRUCTURE GLOBALE DU DEUXIEME MODELE THEORIQUE ....................................................................................................................... 131

PARTIE 2. METHODOLOGIE DE RECHERCHE ET MISE EN APPLICATION DU MODELE THEORIQUE .................................................................................................... 137

CHAPITRE 4.................................................................................................................... 138 POSITIONNEMENT EPISTEMOLOGIQUE ET METHODOLOGIE DE LA RECHERCHE............. 138 CHAPITRE 5.................................................................................................................... 155 ETUDE DES ANALYSES DESCRIPTIVE ET EXPLORATOIRE .................................................. 155 CHAPITRE 6.................................................................................................................... 196 ANALYSE CONFIRMATOIRE : ............................................................................................. 196 VALIDATION DES HYPOTHESES DE RECHERCHE ............................................................... 196

SYNTHESE DE LA PARTIE 2. ......................................................................................... 249

RESUME DES RESULTATS DU PROCESSUS D’ANALYSE DES DONNEES ........ 249

CONCLUSION GENERALE................................................................................................... 253 BIBLIOGRAPHIE ................................................................................................................. 263 TABLE DES MATIERES ........................................................................................................ 289 LISTE DES FIGURES ............................................................................................................ 294 LISTE DES TABLEAUX......................................................................................................... 295

Page 6: thèse dauphine - nombreux documents chercheurs +

Introduction Générale

“ Les TIC dont on a tant parlé, …,ne sont-elles

que la énième évolution technologique, que le résultat de phénomène de mode,

ou possèdent-elles un véritable caractère stratégique ?”

KALIKA M., «Le e-Management: quelles transformations pour l’entreprise ? », Editions Liaisons, 2003.

Page 7: thèse dauphine - nombreux documents chercheurs +

Introduction générale

4

1. Formulation de la problématique de recherche

Depuis toujours, l’entreprise est à l’écoute de son environnement immédiat (clients,

fournisseurs, concurrents, pouvoirs publics) et potentiel pour connaître les éléments qui ont ou

auraient une influence sur son activité présente et future. Progressivement, elle a intégré dans

son organisation cette quête d’information sur son environnement. Ce processus est devenu

un champ de recherche autonome. En particulier, depuis les années 1960, ce processus a pris

le nom de veille stratégique, grâce à des chercheurs tels qu’Aguilar (1967) ; Morin (1985) ;

Lesca (1986) ; Jakobiak (1989)…

Aguilar (1967) fut le pionnier de la recherche sur la veille stratégique, il définit ce concept

comme étant la récolte d’informations externes à l’entreprise sur les événements et tendances

de l’environnement.

Processus informationnel par lequel l’entreprise se met à l’écoute de son environnement, la

veille stratégique est un ensemble de tâches à coordonner pour fournir une aide à la décision,

allant de la recherche des informations à leur interprétation et à la création du sens pour ces

informations (Lesca, 1994).

Par ce processus, la veille stratégique anticipe sur ce qui se passe à l’extérieur de l’entreprise.

Aussi faut-il être capable de détecter et d’utiliser toutes informations ou signaux, mêmes les

plus faibles (signaux d’alerte précoces) venant de l’environnement, notamment des acteurs

susceptibles d’influencer le devenir de l’entreprise par leurs stratégies, décisions et actions.

Pourtant les dirigeants sont confrontés à un paradoxe : alors même qu’ils sont noyés

d’informations, ils éprouvent des difficultés à identifier et à acquérir la « bonne information »

dont ils ont besoin pour prendre leur décision.

Plus récemment, l’émergence des « nouvelles » technologies de l’information a permis

d’augmenter l’exhaustivité de la collecte et d’assurer une meilleure capacité de classement de

l’information grâce au recours à l’intelligence artificielle.

Dès lors, la veille stratégique s’est dotée d’outils plus performants ayant pour fonctions

d’identifier les centres d’intérêts des usagers de la veille et de faciliter l’analyse et la diffusion

de l’information et des connaissances. Générant des informations de plus en plus pertinentes,

ces outils semblent susceptibles d’influencer le processus de la prise de décision dans

l’entreprise. Or, malgré ce rôle de plus en plus important joué par la veille stratégique, peu de

recherches ont traité de l’interaction entre les outils de la veille et leurs utilisateurs.

Page 8: thèse dauphine - nombreux documents chercheurs +

Introduction générale

5

On distingue deux groupes principaux d’outils de veille stratégique :

- Les outils spécifiques à la collecte des données et à la recherche des informations.

Par exemple les moteurs de recherche.

- Les outils propres à l’analyse de l’information et à l’organisation des processus de

veille. Par exemple, les agents intelligents1, les logiciels dédiés à la veille, les outils

de traitement des données, de partage et de diffusion des informations...

Dans les deux groupes, le processus de veille a notamment recours à une famille d’outils,

appelés les agents intelligents (Lesca et Chokron, 2000). Dans notre étude, nous

conceptualisons ces agents intelligents, dans le but d’étudier l’impact de leur utilisation dans

plusieurs domaines d’application.

Reix et al. (2002) ont distingué cinq grands domaines d’application de l’outil informatique :

- L’informationnel, qui recouvre la gestion des données et des connaissances

- Le fonctionnel, qui englobe le traitement des transactions et l’aide aux tâches

opérationnelles

- Le décisionnel, qui traite des processus de décision et de l’aide à la décision

- Le relationnel, qui rassemble les processus de communication et l’aide à la

communication

- Et enfin, un domaine général lorsqu’on traite du système d’information dans sa

globalité.

Dans notre étude, ces agents intelligents sont davantage traités sous l’angle informationnel

(gestion des données, des informations…), sous l’angle fonctionnel (recherche, stockage,

traitement automatique des informations…) ou sous l’angle décisionnel (assistance dans le

management stratégique, dans le e-commerce et dans d’autres activités d’aide à la décision).

L’objet de cette recherche est donc double :

- Il est d’ordre conceptuel car il s’agira de définir la veille stratégique, l’information,

le système de son traitement, les agents intelligents, … 1 Ils sont capables de dépouiller de très grosses bases de données, que l’accès en soit autorisé ou non. Ces logiciels puissants peuvent décortiquer plusieurs millions d’articles scientifiques relatifs à un sujet particulier et, alors que l’information recherchée n’existe pas formellement, la créer en effectuant des recoupements et des corrélations. Ils sont Capables de s’adapter à de nombreux environnements et configurations, ils prennent des initiatives. Ils naviguent dans un environnement logiciel de haut niveau en faisant abstraction des infrastructures des systèmes. (Définition générique donnée par l’encyclopédie Universalis)

Page 9: thèse dauphine - nombreux documents chercheurs +

Introduction générale

6

- Il est d’ordre pratique car il faudra chercher les fonctionnalités des agents

intelligents et leurs utilités perçues dans les organisations.

Ainsi, notre recherche s’attachera à caractériser les liens existants entre les Agents Intelligents

(AI) de la veille stratégique et l’intention de les utiliser au niveau des différentes directions

organisationnelles. Dans ce cadre, il faudra en particulier tenir compte des interactions qui

auront lieu tout au long du processus d’utilisation, d’une part, entre les

concepteurs/fournisseurs de cette technologie-agents et les directeurs/managers. Et, d’autre

part, entre les utilisateurs et les agents logiciels.

En effet, ces liens ont évolué dans le temps. A l’origine, l’attention avait été focalisée sur

l’amélioration des Systèmes d’Information (SI) que pouvait entraîner l’utilisation des agents

intelligents. Ce fut notamment le cas lors de recherche de grandes quantités d’informations.

Puis, avec l’arrivée d’agents de « data mining » de plus en plus sophistiqués (les systèmes

autonomes, par exemple), l’attention s’est portée sur la capacité d’extraire automatiquement la

connaissance utile parmi une masse importante d’informations (Nabeth et al., 2003).

Dès lors, au plan théorique, le rôle des agents a été pris en compte dans la mise en œuvre des

systèmes de gestion de la connaissance. Du point de vue du management des organisations,

cette évolution a entraîné un premier questionnement à deux dimensions :

- Technique : quel est l’état de la faisabilité des agents cognitifs2 (ou intelligents) y

compris dans leur dimension expérimentale ?

- Managériale : comment intégrer les agents cognitifs au sein des systèmes de gestion

de la connaissance ?

Partant des défis posés à la gestion des connaissances, Nabeth et al. (2003) se sont concentrés

sur la seconde dimension, avec le souci de répondre à trois besoins des systèmes de gestion de

la connaissance pour le futur (y compris ceux relatifs à la mise en œuvre d’agents cognitifs) :

- Aider à la gestion de la connaissance tacite

- Offrir un soutien actif à la dynamique des échanges au sein des organisations dans le

but de dépasser l’aspect purement documentaire des systèmes actuellement en cours

- Intégrer la spécificité des utilisateurs.

2 Un agent cognitif est défini ici par « sa grande capacité de représentation de son environnement d’action et par une certaine capacité de raisonnement » (Nabeth et al., 2003)

Page 10: thèse dauphine - nombreux documents chercheurs +

Introduction générale

7

Par ailleurs, notre étude traitant des agents intelligents en tant qu’outil spécifique de la

veille stratégique, un second questionnement double s’est imposé du point de vue du

management des systèmes d’information :

- Technique : quel est l’état de la faisabilité des agents intelligents, au sein des

organisations ?

- Managérial : comment identifier les agents intelligents au sein du processus de

la veille stratégique ? Comment évaluer leur utilisation sous une perspective

individuelle, c’est à dire sous l’angle de leur utilisateur ?

Nous traitons, la dimension technique en nous basant sur le champ de l’intelligence

artificielle, afin de découvrir les caractéristiques de la technologie des agents intelligents.

Quant à la seconde dimension, nous mettons l’accent sur l’interaction Agent Humain/Agent

Logiciel, en nous inspirant des travaux sur l’Interaction Homme-Machine (Beard & Peterson,

1988 ; Hewett et al., 1992 ; Zhang et al., 2002 ; Carey et al. 2004 ; Zhang, 2004 ; Zhang et al.,

2005…).

A travers ces questionnements nous cherchons à mieux comprendre la nature des relations

entre les deux parties (Agent Humain/Agent Logiciel). Pour ce faire, nous mobilisons un

cadre conceptuel qui intègre deux champs de recherche : Management des Systèmes

d’Information et Interaction Homme-Machine. Au plan de la méthode, cela nous a facilité le

traitement de la question de l’interaction entre les deux agents. Enfin, grâce à ce champ, nous

avons pu progresser dans notre étude sur l’impact de l’utilisation des agents intelligents sur la

veille stratégique à travers:

- L’évaluation de la perception individuelle de l’outil technologique

- La recherche des domaines d’application des agents intelligents dans les

organisations

- Et l’intention d’utiliser les agents intelligents.

Il n’en demeure pas moins que la gestion des informations pose trois défis importants relatifs

à trois besoins essentiels :

- Aider à l’analyse des données structurées et semi-structurées

- Mesurer la perception qu’ont les utilisateurs des agents intelligents dans le but de

découvrir les nouveaux aspects attribués à cette technologie

Page 11: thèse dauphine - nombreux documents chercheurs +

Introduction générale

8

- Identifier les catégories des utilisateurs de cette technologie.

Dès lors, à partir de ces trois défis, notre démarche cherchera à répondre à trois questions de

recherche essentielles :

1. Comment peut-on faire le choix entre les différents agents intelligents pour collecter,

traiter et diffuser les informations ?2. Quelles sont les caractéristiques de l’utilisation

des agents intelligents et comment sont-ils intégrés dans le processus de la veille

stratégique ?3. Quel est l’impact de l’utilité perçue de la technologie des agents

intelligents sur l’intensité d’utilisation ?

2. Structure générale de l’approche de cette recherche

Pour répondre à l’ensemble de ces questionnements, nous avons structuré notre approche en

deux parties. La première partie est composée de trois chapitres :

Le chapitre 1 explicite le cadre conceptuel et la nature des relations qui lient les trois concepts

clés que sont la Veille Stratégique, les Technologies des Systèmes d’Information (TSI) et les

Agents Intelligents (AI).

Le chapitre 2 présente les caractéristiques et les applications de la technologie des Agents

Intelligents. En effet, nous avons présenté trois classifications liées à trois domaines différents

à savoir l’intelligence artificielle, le commerce et le web. Suite à cette lecture, nous avons

proposé un premier modèle théorique et présenté la première phase d’exploration du terrain.

Nous avons rencontré des difficultés de confrontation de ce modèle à la réalité.

Le chapitre 3 présente les dimensions théoriques de l’Interaction Homme-Machine dans le

champ du Management des Systèmes d’Information, afin de montrer la place de l’utilisateur

dans un système d’information et son interaction avec les TSI. Dans ce chapitre, les

instruments de mesure et d’évaluation des systèmes d’information sont détaillés. Plusieurs

modèles théoriques y sont analysés afin de dégager les caractéristiques les plus à même

d’inspirer la construction d’un modèle capable de répondre à notre problématique.

Le deuxième modèle construit sur la base de la sollicitation de deux champs de recherche : le

champ IHM et celui MSI, sera ensuite mis en application dans la seconde partie de la thèse et

validé à l’aide de cette technique de recherche : soumission d’un questionnaire (155

répondants).

Page 12: thèse dauphine - nombreux documents chercheurs +

Introduction générale

9

Dans le chapitre 4, nous présentons dans un premier temps notre positionnement

épistémologique et méthodologique de la recherche. Dans un second temps, un questionnaire

a été conçu sur la base du second modèle théorique « définitif ». Cet instrument de mesure a

permis de collecter les données primaires de cette étude. Cette seconde technique a été

pertinente dans la confrontation du modèle à la réalité et dans la collecte des données.

Le chapitre 5 est réservé à deux types d’anayses, la première est descriptive et la deuxième est

exploratoire. Dans la première analyse nous avons testé l’homogénéité de l’échantillon (nous

avons utilisé SPSS). Dans la deuxième analyse, nous avons réduit le nombre d’items grâce à

l’analyse en composantes principales. Nous avons fait recours aussi à une classification des

utilisateurs des agents intelligents. Ces deux traitements sont faits sous SPAD. Enfin, une

analyse de variance a été mise en place afin de mesurer l’influence entre les caractéristiques

de la tcehnologie sur les variables des deux modèles d’évaluation de systèmes d’information

intégrés (ce traitement est fait sous SPSS).

Le chapitre 6 présente la troisième analyse confirmatoire composée de deux traitements

consécutifs : dans le premier traitement nous avons testé sous PLS-Graph, toutes les relations

qui forment le modèle théorique dans sa globalité. Ce test conduit à une compréhension de

choix sur l’utilisation des agents intelligents. Dans le deuxième traitement nous avons élaboré

et spécifié, sous AMOS deux modèles résultant du premier traitement afin de valider d’autres

relations.

La figure 1 présente la structure générale de l’approche de notre recherche.

Page 13: thèse dauphine - nombreux documents chercheurs +

Introduction générale

10

Figure 1. Structure générale de l’approche de notre recherche

Utilisateur

Organisation

Décision

SI AI TSI

Veille stratégique

Utilisation Choix

Impact

Impact

Domaines d’application

Objet de la recherche : Conceptualisation et fonctionnement des Agents Intelligents (AI): - Etude des relations : AI/Utilisateurs, AI/Organisation, et AI/Décision - Niveaux d’analyse : Technologique, Individuel, inter-organisationnel.

Construction du modèle théorique

Représentation théorique

Terrain de la recherche

Confrontation du modèle théorique à la réalité. Méthodologie : 6 entretiens exploratoires, enquête par questionnaire.

Perspective : Impact des AI sur la perception des utilisateurs : - Impact de l’adéquation Technologie/Tâche sur le degré d’utilisation des AI. - Impact de l’Adéquation Technologie/Tâche sur l’acceptation de cette technologie. - Impact de l’acceptation des AI sur le degré d’utilisation des AI.

Résultats de la recherche

Page 14: thèse dauphine - nombreux documents chercheurs +

PARTIE 1

Présentation du cadre théorique de la recherche

Nous commençons notre recherche par la formulation d’une grille de lecture qui étudie

l’impact des Systèmes de Traitement de l’Information (STI) sur la veille stratégique. Ensuite,

la détermination des facteurs clés de succès de l’acceptation de l’utilisation des technologies

d’accès et de traitement automatique de l’information sous une perspective individuelle.

Ainsi, nous essayons dans un premier chapitre de caractériser d’une part le lien entre la veille

stratégique et les systèmes d’information. Et d’autre part, le lien entre les STI et le processus

de prise de décision. D’où la nécessité d’un processus de veille stratégique qui fait intervenir

des acteurs. Ces derniers mettent en mouvement les systèmes d’information.

Dans un deuxième chapitre, nous présentons les caractéristiques et les applications de la

technologie des Agents Intelligents. Nous définissons l’agent intelligent en tant qu’outil

technologique de la veille stratégique. Nous déterminons dans cette étape, le contexte, les

caractéristiques spécifiques aux agents intelligents, ainsi que, leur classification par rapport à

leur fonction, la mise en œuvre de chaque type d’agent et la situation d’interaction avec

l’utilisateur. Suite à la classification des AI, nous avons proposé un premier modèle théorique

et présenté la première phase d’exploration du terrain. Nous avons rencontré des difficultés de

confrontation de ce modèle à la réalité.

Enfin, nous présentons dans un troisième chapitre, le rôle important de l’interaction homme-

machine dans le management des systèmes d’information. Nous évoquons les différents

modèles de base traités par la littérature des systèmes d’information pour pouvoir construire le

modèle théorique de cette recherche.

Page 15: thèse dauphine - nombreux documents chercheurs +

CHAPITRE 1

Processus de veille stratégique et Systèmes

d’information : évolution des concepts

théoriques

“External information is abundant, attention can be

directed any number of ways, but not every way”

Hambrick D.C., «Environment, Strategy and Power Within Top Management Teams», Administrative Science Quarterly, 26 (2),1981.

Page 16: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

13

Introduction

Ce chapitre a pour objet de définir plusieurs concepts théoriques afin de mieux comprendre

l’appellation de chaque concept ainsi que son évolution au cours de ces dernières années.

Dans une première section, nous définissons les notions proches de la veille stratégique. La

multiplicité des notions nous incite à définir, en premier lieu, trois notions principales :

« Competitive Intelligence », « Business Intelligence » et Veille Stratégique (Lesca, 2004)

pour éviter la confusion entre ces derniers. En deuxième lieu, nous définissons le traitement

de l’information et des systèmes d’information.

Dans une deuxième section, nous présentons les systèmes de traitement de l’information et le

processus de veille afin d’exposer les TIC comme outils de la veille stratégique et le lien entre

ces outils, l’information et le processus de prise de décision.

Section 1 : Définition et évolution des concepts

1. Foisonnement terminologique

1.1. Multiplicité des notions

Avant d’en arriver à une définition faisant plus ou moins référence en la matière, les

chercheurs ont multiplié à la fois les notions proches de la veille stratégique et accentué la

complexité de celle-ci selon les tâches qui lui sont attribuées.

Ainsi, au cours des cinquante dernières années, les chercheurs ont tour à tour parlé de

l’intelligence organisationnelle (Wilenski, 1967 ; Choo, 1997), d’intelligence d’affaire (Gilad

et Gilad, 1988), d’intelligence d’entreprise (Lesca et Chokron, 2000). Puis on est arrivé aux

concepts de Competitive Intelligence et de Business intelligence.

Parallèlement, depuis la fin des années 1990, la veille stratégique évolue dans sa définition

selon les phases qu’elles couvrent (Vedder, Vanecek, Guynes, Capel, 1999 ; Lesca, 2001 ;

Rouach, Santi, 2001) et selon les tâches qui lui sont attribuées. Aguilar (1967) indiquait un

processus d’assistance à l’identification et à la compréhension des menaces et des

opportunités stratégiques. Abramson (1997) considérait quant à lui que ce processus consistait

à rechercher, interpréter et transformer des informations intelligentes utiles à l’action des

Page 17: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

14

décideurs. Entre ces deux auteurs, une dizaine de chercheurs (dont Morin, 1985 ; Jakobiak,

1989 ; Thietart, 1990 ; Marmuse, 1992 ; Walls et al. 1992; Lesca H, 1986-1994…) ont

apporté leur contribution à la définition de la veille stratégique.

En tout état de cause, quelle que soit la terminologie employée, toutes ces notions expriment

le fait que le processus d’intelligence ou de veille stratégique est un processus volontariste par

lequel l’entreprise traque, assimile et diffuse de l’information en provenance de son

environnement externe en vue de son utilisation pour l’action. C’est aussi un processus dans

lequel des acteurs (les Hommes et leur interaction avec la machine) mettent en mouvement,

de façon volontaire et selon des objectifs, les systèmes d’information. On passe ainsi d’un

processus d’information à celui d’utilisation, et de l’utilisation à l’action.

Dans ce processus, le système d’information est un élément capital, la base essentielle de la

veille stratégique. Mais il n’est qu’un ensemble de stocks statique et ne peut en aucun cas être

équivalent à celle-ci.

Figure 2. Impact de l’utilisation des agents intelligents

Ce foisonnement terminologique n’en a pas moins conduit vers l’émergence de trois concepts

principaux, toujours en « concurrence » : la Competitive intelligence, la Business intelligence,

la Veille stratégique.

1.2. Competitive Intelligence et Business Intelligence

Le premier concept a été défini par la société professionnelle de l’intelligence compétitive

comme étant : « un processus de collecte morale, d’analyse et de dissémination précise,

Utilisateur

Organisation

Décision

SI AI TIC

Veille stratégique

Utilisation Choix

Impact

Impact

Domaines d’application

Page 18: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

15

…concernant les implications de l’environnement des affaires, les compétiteurs, et

l’organisation en elle-même ». (SCIP, 2003)

En d’autres termes, l’intelligence compétitive est la sélection, la collecte, l’interprétation et la

distribution de l’information publique. (Boncella, 2003).

Le processus de l’intelligence compétitive implique un nombre d’activités distinctes, c’est un

cycle continu dont les étapes comprennent (Herring, 1998) :

- La planification et la direction : travaillant avec les preneurs de décision pour

découvrir et cibler leurs besoins d’une manière intelligente

- La collecte des données : conduite d’une façon légale et morale

- L’analyse des données : interprétation des données et compilation des données

recommandées

- La dissémination des informations : présentation de ce qui a été analysé aux

preneurs de décision (Kahaner, 1998; Rouach & Santi, 2001)

- L’effet retour : en prenant en compte la réponse des preneurs de décision et leurs

besoins d’une façon intelligente et continue.

Ce processus sera schématisé dans la figure 3 :

Page 19: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

16

Figure 3. Processus de l’intelligence compétitive.3

Dans la phase de collecte des données, diverses techniques sont appliquées comme la

surveillance de l’environnement. Elle concerne la collecte des informations primaires et

secondaires dans les domaines politique, économique, technologique et social (Shaker &

Gembicki, 1999 ; Teo, Choo, 2001). L’information primaire est une information qui n’est pas

retraitée par un intermédiaire. L’information secondaire est l’information disposée par un

intermédiaire (Isaac, 2003). La première catégorie regroupe les nouveaux produits ou services

des entreprises, les réactions des clients sur les produits des concurrents observées sur les sites

de distributeurs ou dans les forums de discussions en ligne… Ces sites forment une source

importante pour la veille commerciale et concurrentielle. Dans la deuxième catégorie

d’informations, on trouve des bases de données dédiées à la veille, rapports financiers sur les

entreprises…(Financial Times, Bloomberg…).

Ces approches de collecte intègrent des interviews personnelles et des ressources en ligne.

L’obtention de l’information matérielle en ligne est assistée par les méta-moteurs de

recherche et les agents intelligents utilisés pour fouiller les données à travers Internet

(Joureston, 2000; Shaker & Gembicki, 1999). Vu la difficulté à collecter ces informations, ces

outils basés sur des technologies Internet sont au service de la traque de l’information sous ses

différentes formes.

3 Pour plus de details voir l’article de FOURATI F., « Measuring user satisfaction with Intelligent Agents: An exploratory study », Presented at sixth international conference on data mining, text mining and their business applications, Skiathos, Greece, May 25-27, 2005, published in Data Mining VI, ISSN 1743-3517, pp. 389-398, WIT Transactions on Information and Communication Technologies, Vol. 35, 2005, WIT Press. www.witpress.com

Planification et Direction

Collecte Analyse Dissémination

Agents de recherche, Moteurs de recherche

Agents Intelligents Bases de Données

Page 20: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

17

Pour traiter le problème de recherche des ressources via Internet, Burwell (1999) fournit une

batterie d’outils pour l’intelligence compétitive et intègre la notion de « l’information faible ».

Cette information est statistiquement non intelligente, collectée auprès des sources non-

traditionnelles comme les pages éditoriales et les groupes de discussion en ligne. Les

utilisateurs du net sont des exemples de groupes de discussion en ligne pour collecter les

opinions (Burwell, 1999; Kassler, 2000). Les moteurs de recherche comme HotBot, Altavista

et Google affirment ce que Kassler (2000) appelle le « lien inverse consulté » en rapport avec

les sites web de la firme. Les liens indiquent à la fois les liens officiels et non-officiels des

relations. De plus, la prolifération d’Internet est le résultat d’une grande attention ciblée sur la

collecte des données, le développement des processus analytiques appropriés à l’intelligence

compétitive (Intelligence compétitive citée dans le chapitre 3 de Reid, 20044) et la

formulation de la stratégie partenariale (Fleisher & Bensoussan, 2003).

L’intelligence compétitive est définie comme l’ensemble des moyens à multi-facettes par

lesquels l’information est interprétée pour produire de l’intelligence pour l’action

organisationnelle (Fleisher & Bensoussan, 2000).

Elle fournit des techniques abondantes comme l’analyse des profils des compétiteurs qui

permettent aux organisations d’analyser des forces et des faiblesses des concurrents actuels et

potentiels dans le but d’identifier les opportunités et les menaces. (C’est l’approche du

positionnement stratégique de Porter). Le tableau 1 présente un sommaire des techniques

analytiques pour le profil des compétiteurs.

Techniques Usage Auteurs

Analyse de la publicité

Identifier les caractéristiques démographiques des compétiteurs, ainsi que leur positionnement.

(Britton, 2002)

Analyse des réseaux d’alliances.

Evaluer la force des réseaux d’alliances des compétiteurs.

(deMan, 2002)

Profil des compétiteurs Fournit une image des forces et faiblesses des concurrents actuels et potentiels.

(Whitehead, 2002); (Fleisher & Bensoussan, 2003)

Analyse de la culture Comprendre les styles de (Herring, Klein, Harris,

4 Edna O.F. Reid, Using Web Link Analysis to Detect and Analyze Hidden Web Communities, (Chapter 3), Information and Communications Technology for Competitive Intelligence, Edited by Drik Vriens, Idea Group, 2004.

Page 21: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

18

partenariale

commandement des compétiteurs et la culture des firmes.

& Bourey, 2002)

Analyse basée sur la prédiction.

Utiliser les outils de classification pour analyser le changement des actions des compétiteurs irrationnels.

(Glitman, 2000);(Mogel, 2002)

Analyse du média Utiliser les outils de diagnostic pour mesurer et comparer les champs d’application du media des compétiteurs.

(Naylor, 2002); (Stott, 1993)

Evaluation des opportunités

Identifier les opportunités et les menaces comme étant un système d’alerte.

(Hoyt, 2002) (Alampalli, 2002); (Patchett, 2002); (Holder, 2001)

Tableau 1. Les techniques d’analyse des compétiteurs (Edna O.F. Reid, 2004)

En plus de la traque des compétiteurs, les environnements social, technique, économique et

politique doivent être surveillés pour détecter les opportunités et les menaces (Fleisher &

Bensoussan, 2003; Mogel, 2002).

L’émergence de ces techniques d’analyse permet de filtrer les informations fragmentaires à

l’intérieur du bruit et de discerner la connexion entre des personnes, des lieux et des

événements dispersés. C’est une nécessité pour les organisations intelligentes parce qu’elles

ont besoin de fouiller les données non-structurées comme les e-mails pour identifier les liens

et les anomalies du sens potentiel dans les marchés traditionnels et les marchés en ligne

(Ignatius, 2002).

En résumé, L’intelligence compétitive est un programme éthique et systématique pour la

collecte, l’analyse et la gestion de l’information externe qui peut affecter les plans, les

décisions et les opérations de la firme. (SCIP, 2003)

Quant au second concept, la « Business Intelligence », c’est un terme relativement nouveau. Il

remplace l’aide à la décision, les systèmes d’information exécutifs et le management des

systèmes d’information (Thomsen, 2003).

Les systèmes du « Business Intelligence » combinent la collecte des données, le stockage des

données et le management des connaissances en utilisant des outils analytiques pour présenter

l’information compétitive, complexe et interne aux planificateurs et aux preneurs de décision.

(Negash, 2004).

Page 22: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

19

Dans cette définition implicite (peut-être idéale), les systèmes du « Business Intelligence »

fournissent une information actionnable délivrée au bon moment, au bon endroit et sous la

bonne forme pour aider les preneurs de décision. La « Business Intelligence » aide dans la

prise de décision opérationnelle et stratégique. Il représente une évolution naturelle de séries

de systèmes antérieurs désignés pour assister la prise de décision. (Negash, 2004)

L’intelligence des affaires est une approche stratégique pour le ciblage, la traque, la

communication et la transformation des signaux faibles en informations actionnables sur les

quelles la prise de décision stratégique est basée. (Rouibah et Ould-Ali, 2002)

1.3. Veille Stratégique

Lesca (2001) définit la veille stratégique comme : « le processus collectif continu par lequel

un groupe d’individus traquent, de façon volontariste, et utilisent des informations à caractère

anticipatif concernant les changements susceptibles de se produire dans l’environnement

extérieur de l’entreprise dans le but de créer des opportunités d’affaires et de réduire les

risques et l’incertitude en général. »

Selon Lesca (2003), la veille signifie être éveillé, être en état de réceptivité, être prêt à

détecter quelque chose qui pourrait se produire sans que l’on sache exactement ni quoi ni où.

Cet auteur définit la veille anticipative stratégique – intelligence collective, comme étant un

processus collectif et proactif, par lequel des membres de l’entreprise traquent (perçoivent ou

provoquent et choisissent) de façon volontariste et utilisent des informations pertinentes

concernant leur environnement extérieur et les changements pouvant s’y produire.

Dans l’expression « veille anticipative stratégique », le mot « stratégique » est utilisé pour

signaler que cette veille a pour mission de fournir aux décideurs des informations utiles dans

certaines situations.

Ces phases se présentent comme suit :

- Ciblage de l’environnement à surveiller : dans cette phase l’entreprise doit cibler les

domaines sur lesquels elle veut agir en priorité.

- Traque des signaux faibles : il s’agit de désigner les capteurs d’informations, de leur

attribuer des missions de collecte et de leur fournir les méthodes et outils de cette

activité.

Page 23: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

20

- Circulation et remontée des informations : il s’agit d’organiser à la fois la circulation

des flux internes et des flux externes de l’entreprise pour rendre les informations

accessibles aux décideurs.

- Transformation des signaux faibles en forces motrices : il s’agit d’analyser les

différentes informations collectées dans le but de leur donner du sens et d’en tirer

une valeur ajoutée.

- Action : la phase précédente permet à l’entreprise de prendre des décisions et donc

d’agir sur son environnement.

Le processus de veille stratégique peut être synthétisé à partir de la représentation qu’en

propose Lesca (1994) et qui est présentée par le schéma ci-dessous.

Figure 4. Processus de la veille stratégique (Lesca, 1994)

En fait, depuis la années 1960, nous notons une évolution continue de la définition du

processus de la veille stratégique. Cette évolution montre l’importance de cette fonction

puisque chaque auteur lui attribue de plus en plus de tâches à assurer. Nous reprenons l’étude

faite par Rouibah (1998) dans ses travaux de recherche et nous montrerons par la suite

l’évolution à la fin des années 90 et au début du 21ème siècle.

Auteurs Ce qu’elle signifie Le processus

Aguilar (1967) Acquisition d’informations externes à l’entreprise sur les événements et les tendances de l’environnement.

Assistance à l’identification et à la compréhension des menaces et des opportunités stratégiques

Volonté des dirigeants de surveiller l’environnement technologique de

- Gagner du temps ;

(5) Mémorisation Base de connaissance

(7) Construction de sens

(8) Utilisation pour l’action

Animation (6) Diffusion/Accès

(1) Ciblage

(2) Traque

(3) Sélection

(4) Circulation

Page 24: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

21

Morin (1985) l’environnement technologique de l’entreprise.

- Anticiper les menaces ; - Saisir les opportunités ; - Assurer le long terme.

Jacobiak (1989)

Observation et analyse de l’environnement.

Diffusion, traitement, sélection des informations utiles à la prise de décision stratégique.

Thietart (1990)

Surveillance de l’environnement en vue d’adaptation de l’entreprise.

- Trier, sélectionner, assembler les informations ; - Fournir aux décideurs les éléments importants pour toute action stratégique.

Marmuse (1992)

Système d’observation de l’environnement et de l’entreprise.

- Détecter des opportunités ; - Identifier des facteurs de vulnérabilité ; - « Nourrir » la stratégie en informations.

Walls et al. (1992)

Identification des informations anticipatives et des discontinuités.

Alerter suffisamment tôt les dirigeants d’entreprise sur d’éventuelles opportunités ou menaces.

Lesca H.

(1986,1994)

-Ecoute prospective et globale de l’environnement ; -Création de visions anticipées.

- de façon aussi anticipative que possible : saisir des opportunités, prévenir les risques, réduire l’incertitude. - préparer le long terme.

Abramson (1997)

Surveillance globale de l’environnement. Rechercher, interpréter, transformer des informations intelligentes utiles à l’action des décideurs.

Tableau 2. Evolution de la notion de la veille stratégique. (Rouibah, 1998)

Comme nous le constatons, la veille stratégique se présente comme :

- Une activité de recherche d’information à laquelle sont allouées des ressources

technologiques et humaines (Aguilar, 1967 ; Pearce et al., 1982 ; El Sawy, 1985) ;

- Une activité d’analyse de l’environnement ;

- Une activité de préparation à la décision.

Lesca N. (2003) a précisé le positionnement de la veille stratégique et le rôle des systèmes

d’information de veille dans chacun de ces quatre contextes de management :

Page 25: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

22

(1) Positionnement stratégique

(2) Théorie cognitive de la décision

(3) Théorie de l’apprentissage organisationnel

(4) Théorie de la contingence

Porter (1985) Simon (1977) March et Simon (1969)

Weick (1995) Argyris (1976)

Lawrence et Lorsch (1967) Aguilar (1967)

L’appropriation exclusive d’une information privilégiée peut conférer un avantage concurrentiel permettant de soutenir la compétitivité d’une façon particulière

L’efficacité de la décision repose sur la capacité du décideur à disposer, au bon moment, de la bonne information et à l’intégrer dans sa formulation du problème avant de choisir une réponse satisfaisante

L’organisation est prise dans un courant d’action continu auquel elle porte un regard rétrospectif et réflexif pour se connaître, comprendre, apprendre, se justifier et finalement agir à nouveau.

L’organisation est un système ouvert qui, pour suivre, est dans la nécessité d’exercer une surveillance permanente de son environnement extérieur et de s’y adapter.

Diagnostic stratégique Prise de décision Résolution de problème

Apprentissage Innovation

Réaction Adaptation

Agréger, synthétiser et analyser

Diffuser, analyser et parfois expérimenter

Agir pour expliquer ; Comprendre pour agir

Surveiller et parfois réagir

Le SI doit être conçu pour permettre l’appropriation d’informations privilégiées, et l’acquisition d’un avantage concurrentiel

Le SI doit supporter les phases de recherche et de choix de la solution. Il doit aussi soutenir la formulation du problème, ce qu’il néglige souvent.

Le SI doit supporter le processus de création de connaissances et d’informations nouvelles.

Le SI doit permettre à l’organisation d’obtenir l’information sur les changements de l’environnement pour rendre possible l’adaptation et la réaction.

Tableau 3. Management stratégique, veille stratégique et système d’information (Lesca N., 2003)

Le concept de l’intelligence des affaires est synonyme de celui de la veille stratégique du fait

qu’il est considéré comme étant une approche systématique dans laquelle l’entreprise doit être

vigilante quant aux signaux d’avertissement de son environnement extérieur afin d’anticiper

les menaces et les opportunités de ses affaires. Quant à la « competitive intelligence », elle est

considérée comme une branche spécialisée de l’intelligence des affaires.

Page 26: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

23

2. Concept de traitement de l’information

Le sens du terme « information » est plus large que dans la théorie de l’information de Claude

Shannon où l’acceptation en est strictement numérique, statistique.

Shannon (1975) a déterminé que l’information est une grandeur observable et mesurable.

C’est un concept physique relationnel.

L’information est la construction personnelle de la réalité, elle correspond à un enjeu pré-

défini que l’acteur a fait valoir par rapport à ses contraintes.

L’information est plutôt qu’une priorité physique de l’univers, une construction du cerveau

humain en terme de relations économiques, sociales et humaines.

La théorie de traitement de l’information a fourni des métaphores à la psychologie,

notamment celles de canal de communication ou de traitement, de capacité limitée et de

« bruit » qui dégrade l’information transmise.

Cette théorie est caractérisée par plusieurs principes :

- L’émetteur et le récepteur d’un message ont un répertoire commun, un code qui leur

permet de transmettre un message codé sur un canal sous forme de signes

décomposables en unités d’information appelées bits.

- Au cours de son cheminement l’information rencontre du bruit c’est à dire des

perturbations aléatoires qui tendent à brouiller le message.

- La redondance permet de se prémunir contre le bruit. Elle est constituée par les mots

inutiles à la transmission des informations.

Il est économique de ne pas transmettre la redondance, mais sa transmission augmente la

fiabilité de l’information. Le transmetteur doit optimiser la redondance en jonglant avec

l’économie et la fiabilité de l’information.

La cybernétique de Norbert Wiener et la théorie de l’information de Claude E. Shannon ne

paraissent pas avoir épuisé les généralisations de toute science possible de l’information, mais

rendent seulement compte au plus haut niveau de ce que les ordinateurs sont et font.

Il apparaît que les approches issues de la théorie de l’information (ou théorie du signal),

théorie qui était au fondement du développement de ces TIC, ne semblent pas pertinentes dès

Page 27: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

24

lors qu’on tente de comprendre le rôle, le pouvoir, l’idéologie, les effets de l’information

(Guyot et co-auteurs, 2004)

Le traitement de l’information se réfère à la collecte des données, la transformation des

données en informations, la communication et l’entreposage de l’information dans

l’organisation (Galbraith, 1973, 1977 ; Tushman & Nadler, 1978 ; Egelhoff, 1982).

En se basant sur la perspective de traitement de l’information, l’investissement dans les

systèmes d’information verticaux est l’une des stratégies qui accroît la capacité de traiter

l’information. Les systèmes d’information verticaux permettent aux organisations de collecter

l’information et la diriger juste à temps, pour l’affecter aux niveaux appropriés de la

hiérarchie (Galbraith, 1973, p.17).

Rhee (2001) a comparé l’accroissement de la capacité de traitement de l’information à travers

la numérisation (il n’y a pas que l’information numérique) avec les besoins des firmes en

traitement de l’information. Cet auteur s’est focalisé sur trois sources de besoins de traitement

de l’information : (i) les caractéristiques de la tâche, (ii) la tâche de l’environnement et (iii)

l’interdépendance de tâche. (Tushman & Nadler, 1978). Il s’est basé sur ces trois déterminants

pour discuter comment ils peuvent affecter la relation entre la numérisation et l’amélioration

de la compétitivité de l’entreprise.

La perspective de traitement de l’information a été utilisée pour des analyses de management

de l’information appartenant au contexte des banques (Rogers, Miller & Judge, 1999), des

petites firmes (El Louadi, 1998), des firmes de santé (Bolon, 1998), des multinationales

(Egelhoff, 1982). Il y a un manque d’études qui appliquent cette perspective dans le contexte

de firmes opérant sur Internet (Rhee, 2001). C’est pourquoi cet auteur a suggéré trois

propositions formant un modèle.

Ce modèle se présente comme suit :

Page 28: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

25

Figure 5. Le modèle théorique de Rhee (2001)

Commençons par l’explication de chacune de ces trois dimensions pour aboutir aux

propositions :

- Caractéristiques de la tâche :

Les tâches doivent être différenciées par certaines caractéristiques. La caractéristique la plus

importante est celle qui est liée à sa simplicité ou sa complexité (Daft, 1992). Lorsqu’une

tâche est très simple et routinière, elle ne présente pas beaucoup de problèmes. Donc les

problèmes inhérents à cette tâche de routine sont bien compris et possibles à prévoir. Par

contre, si la tâche devient de plus en plus complexe, il est difficile de comprendre ou de

prévoir les problèmes à l’avance. Par conséquent, les caractéristiques de la tâche affectent la

méthode de production (Brown, 2001).

Aujourd’hui, la demande des consommateurs exigeant un produit personnalisé (customized),

couplé à leur habilité à comparer les prix en cliquant sur un bouton, force les firmes à être

plus efficaces en matière de production et plus fidèles aux consommateurs en matière de

personnalisation. Le consommateur devient la source primaire de la tâche de configuration de

l’information. Donc comment peut-on capter l’information sur les besoins du consommateur

au bon moment ?

Caractéristiques de la tâche

La tâche de l’environnement

Interdépendance de la tâche

Numérisation

Compétitivité

de la firme

P1 P2

P3

Trois sources : travail relié à l’incertitude

Page 29: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

26

Les firmes et leurs partenaires peuvent trouver que l’interactivité est plus facile quand

l’information est dans son format numérique.

D’où la première proposition (P1) : L’efficacité de la numérisation en tant que e-stratégie doit

être contingente avec les caractéristiques de la tâche. Toutes choses égales par ailleurs, plus la

tâche est complexe et non routinière, plus la numérisation augmente la compétitivité de la

firme.

- Tâche de l’environnement :

Cette dimension représente à la fois une source d’incertitude et de besoins en traitement de

l’information. Elle se réfère aux secteurs avec qui la firme interagit directement et qui ont un

impact direct sur l’habilité de la firme à atteindre ses objectifs (Daft, 1992).

Internet a crée des changements profonds. En premier lieu, les produits deviennent obsolètes

d’une façon rapide (produits électroniques). Par conséquent, la réduction du cycle de temps

devient un facteur critique déterminant la productivité et la compétitivité (Wetherbe, 1996).

Quand la tâche de l’environnement est dynamique et rapide dans les industries high-tech, la

quantité de l’information requise dans l’environnement est significative et donc la

numérisation, en tant que façon d’accroître les capacités de traitement de l’information,

semble accroître la compétitivité de la firme. D’où la deuxième proposition (P2):

L’efficacité de la numérisation en tant que e-stratégie doit être contingente avec la tâche de

l’environnement. Toutes choses égales par ailleurs, plus la tâche de l’environnement est

dynamique et rapide, plus la numérisation augmente la compétitivité de la firme.

- Interdépendance de la tâche :

Cette dimension nécessite la coordination et la résolution de problème. Plus grand est le degré

d’interdépendance de la tâche, plus grand sont les besoins en traitement de l’information.

Avec l’ère d’Internet, beaucoup plus d’attention est accordée à l’intégration virtuelle. Cette

intégration permet aux firmes de se concurrencer ensemble en groupes.

L’interdépendance de la tâche peut décider le nombre d’information à traiter. Cette

interdépendance élevée accroît le besoin de traiter une quantité significative d’information.

D’où la troisième proposition (P3) :

Page 30: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

27

L’efficacité de la numérisation en tant que e-stratégie doit être contingente avec

l’interdépendance de la tâche. Toutes choses égales par ailleurs, plus l’interdépendance de la

tâche est réciproque, plus la numérisation augmente la compétitivité de la firme.

Rhee a exploré les conditions dans lesquelles la numérisation peut accroître la compétitivité

de la firme, en utilisant la perspective de traitement de l’information. Cette étude peut être

développée dans d’autres recherches.

3. Concept des systèmes d’information

« … Pour définir l’informatique comme la science du traitement automatisé de l’information

et pour considérer qu’elle contribue à la définition du système d’information de l’entreprise.

Celui-ci est composé de l’ensemble des éléments (personnels, matériels, logiciels, etc.)

permettant d’acquérir, traiter, mémoriser, communiquer des informations » (Kalika, 1992)

Cette définition est opérationnelle dans le système d’information d’une entreprise.

Nous proposons une seconde définition plus large du système d’information donnée par Reix

(1995) : « Un système d’information est un ensemble structuré de ressources humaines,

matérielles et logicielles, de données, de procédures et de réseaux de communication qui

recueille, transforme, stocke et diffuse l’information au sein d’une organisation, et dont la

finalité est d’assister les êtres humains dans les fonctions d’exécution, de gestion et de prise

de décision ».

Cette définition traite d’autres aspects avec la finalité d’assister les êtres humains dans leurs

différentes fonctions.

Le Système de traitement d’information insiste sur les aspects cognitifs de la décision,

l’acquisition et le traitement de l’information apparaissant comme plus importants pour

prendre une «bonne» décision que la recherche fine illusoire d’une décision en apparence «la

meilleure».

Les techniques de mise en œuvre du Système de Traitement de l’Information (S.T.I.) sont

principalement celles de l’informatique, et notamment des Systèmes Interactifs d’Aide à la

Décision (S.I.A.D.).

Ceux-ci constituent une interface entre un ordinateur et une ou plusieurs personnes (S.I.A.D.

Individuel ou S.I.A.D.I.; et S.I.A.D. de Groupe ou S.I.A.D.G.).

Page 31: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

28

Dans tous les cas de figure, le système implanté en machine joue le rôle d’amplificateur

cognitif, mettant l’accent sur une ou plusieurs phases du processus de décision.

La définition conceptuelle du système d’information se fonde sur la cognition humaine. En

psychologie cognitive, le cognitif se caractérise par des processus de traitement de

l’information. Avant d’étudier les processus cognitifs comme étant une échelle continue de

traitement de l’information, présentons tout d’abord le développement des systèmes

d’information pour montrer l’incapacité des SAD5 à atteindre leurs objectifs.

Videl et Lacroux (2000) introduisent leur article par une perspective historique pour montrer

que les affirmations de Gorry et Scott-Morton (1971) et de Simon (1980) ne sont pas des

constats isolés. Le tableau 4 récapitule l’histoire des systèmes d’information depuis les années

80 :

Année Auteurs Constat Bergeron Blouin

Les systèmes d’information ne répondent pas aux besoins des décideurs.

1980

Neumann Hadass

- « Les attentes importantes et les prévisions optimistes suscitées par les SI informatisés pour le support de processus de prise de décisions n’ont pas été confirmées ». - « La contribution des SI informatisées à la prise de décision stratégique a été insignifiante ».

1987 Tardieu Theys

L’approche par les besoins en information qui est toujours l’approche dominante en SI.

1988

Sharda, Barr, McDonnel

En dépit de la popularité des SAD, l’efficience de ce système sur les processus de prise de décision reste à prouver.

1989

Holtzman

L’ensemble des efforts entrepris (dans le domaine de la décision, de la gestion des connaissances) pour développer une méthode de conception de systèmes décisionnels n’ont pas été couronnés de succès.

1989

Mc Cratt, Rohrbaugh

Les performances des Group Decision Support System (GDSS) sont très variables sur l’efficience du processus de décision.

1989 Nunamaker L’aide à la décision avec des ordinateurs est une tâche très difficile.

5 SAD : Système d’Aide à la Décision

Page 32: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

29

1991 Preston Silver

Les nouvelles technologies de l’information et les systèmes d’information de façon plus générale ont eu un très faible impact sur l’effectivité de la prise de décision dans les organisations.

1992 Docherty Les GDSS contraignent par trop les échanges interpersonnels ce qui nuit au processus de décision.

1992 Whitaker Les GDSS laissent de côté la dimension essentielle qui les différencie des SAD : le support a une activité de groupe.

1994 Boland, Tenkasi, Te’eni

Faible impact des technologies de l’information sur l’aide à la décision des managers.

1995 Er, Ng Les premiers résultats expérimentaux sur les effets des GDSS sur les processus de décision de groupe sont plutôt décevants.

1995 Massey Clapper

Les chercheurs sur les GDSS accordent trop peu d’attention à la phase de définition des problèmes, de création de sens.

1997 Bannon Echec des GDSS pour la formulation des problèmes. Fascination pour la technologie et oubli de la dimension sociale, de la résolution de problèmes.

1997 Simon Les SI ont eu un peu d’impact sur la prise de décision au travers de la recherche opérationnelle et des sciences de gestion, et au travers des systèmes experts développés en intelligence artificielle.

1999 Forgione Certaines études empiriques ont montré des dysfonctionnements et des résultats équivoques dans l’utilisation des SAD.

1999 Khathuria, Anandarajan Igharia

Difficulté d’intégrer les technologies de l’information dans la réalisation des projets et de la stratégie d’entreprise.

Tableau 4. Evolution des systèmes d’information (Vidal et Lacroux, 2000)

D’après cet historique, tout au long des 20 dernières années, les différents auteurs ne peuvent

que constater l’inaptitude des SAD à assister d’une manière efficace les dirigeants. On est

confronté à un paradoxe des SAD : à la fois de plus en plus présents dans la vie des

organisations mais conservant un rôle peu efficace dans les processus de décision des

managers.

Page 33: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

30

La dimension collective du processus de décision a été ignorée par les chercheurs en GDSS.

De plus, il est nécessaire de tenir compte de la dimension sociale/politique de la résolution des

problèmes.

Comment peut-on adapter les systèmes d’information à l’individu et au groupe ?

La notion de système d’information peut être définie comme la combinaison de divers types

de bases de données accessibles à travers divers types de consultation interactive avec

l’utilisation de divers types de logiciels.

Une variété de technologies électroniques est valable pour fournir aux groupes de prise de

décision un support à différents niveaux. En nous référant à la recherche nous pouvons

trouver cette classification de groupes : Group Support Systems (GSS), Group Decision

Support Systems (GDSS), Group Communication Support Systems (GCSS), Computer-

Supported Collaborative Work (CSCW), Electronic Meeting Systems (EMS), et Computer-

Mediated Communications (CMC). (Saunders & Miranda, 1998).

L’étude élaborée par Saunders & Miranda s’est focalisée beaucoup plus sur le GSS qui fournit

un support électronique aux individus et aux groupes par le biais de lien entre les ordinateurs

et les bases de données. Ces auteurs ont examiné l’acquisition de l’information dans deux

environnements différents, l’un est traditionnel et l’autre est électronique dans le but

d’explorer l’influence des modèles de groupes d’acquisition d’information sur la qualité de

décision.

Cette étude est destinée à mesurer deux facteurs :

- Tâches (intellective vs. conflit cognitif) et rencontre sur l’environnement

(électronique vs. traditionnel) : Composante contextuelle.

- Nombre d’informations acquises ou fréquence d’accès à l’information : composante

d’acquisition d’information dans chaque stade – Identification, Développement et

Sélection – de prise de décision : composante décisionnelle.

La variable dépendante est celle de la qualité de décision.

Pour comprendre l’acquisition de l’information durant la prise de décision, il faut que le

décisionnel, l’acquisition de l’information et les composantes contextuelles soient intégrés.

Toutes ces composantes ont un impact dynamique sur l’acquisition de l’information durant la

prise de décision.

Page 34: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

31

Ces auteurs ont essayé de comprendre l’acquisition de l’information à travers les phases de

processus de décision en se référant aux modèles de Simon (1965) et Mintzberg et al. (1976) ;

tout en intégrant ces trois variables à savoir le décisionnel, l’acquisition de l’information et les

composants contextuels. Chacune de ces variables a un impact dynamique sur l’acquisition de

l’information durant le processus de prise de décision.

La recherche de Saunders & Miranda repose sur les hypothèses suivantes :

H1 : Les groupes utilisant GSS pourront accéder à l’information plus fréquemment que

les groupes de rencontre traditionnels. (Utilisation du GSS / Fréquence d’accès à

l’information)

H2 : Les groupes GSS peuvent accéder à l’information plus fréquemment dans la phase

d’identification que les groupes de rencontre traditionnels. (Utilisation du GSS / Modèles

d’accès à l’information)

H3 : Les groupes résolvant les tâches intellectives pourront moins bien accéder à

l’information dans la phase d’identification que les groupes résolvant les tâches de conflits

cognitives associées aux principes moraux. (Type de tâche / Modèles d’accès à l’information)

H4 : Les groupes qui ont accès à l’information en avance dans le processus de prise de

décision pourront prendre les bonnes décisions plus vite que ceux qui ont accès à

l’information en retard. Cela est dû au cycle de vie court de l’information. (Modèles d’accès à

l’information / Qualité de décision)

La première, la troisième et la quatrième hypothèse ont été confirmées par ces auteurs. Seule

la deuxième hypothèse n’a pas été confirmée.

Avec le groupe GSS, chaque membre peut penser et travailler individuellement en utilisant les

bases de données et en échangeant les idées, à travers les discussions…Le feedback à travers

ces membres est très rapide. L’échange de l’information dans ce contexte est idéal du fait que

les membres de ce groupe ont un accès direct aux différentes sources d’informations.

D’un point de vue théorique, un membre de groupe peut accéder à l’information

indirectement et si elle n’est pas connue par les autres membres il peut la partager avec les

autres. Cependant, le partage de l’information auprès des membres formant un groupe génère

des coûts en terme de temps et d’efforts. Le groupe GSS a l’avantage de faciliter le partage

d’informations et la réduction de coûts.

Page 35: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

32

Section 2 : Systèmes de traitement de l’information et processus de veille stratégique

1. TIC comme outils de la veille stratégique

Les Technologies de l’Information et de la Communication (TIC) sont l’ensemble des

techniques, réseaux, bases de données, technologie, matériels. Elles sont à la fois :

1. L’infrastructure technologique.

2. Un élément de la structure organisationnelle (design de l’organisation). On parle de

la plate-forme technologique.

3. La base de la veille stratégique ; elle est liée à la façon d’organiser et pourquoi pas à

la façon de veiller.

Les technologies de l’information permettent d’augmenter l’exhaustivité de la collecte,

assurent une meilleure capacité de classement et de hiérarchisation de l’information grâce au

recours à l’intelligence artificielle.

Les outils de la veille stratégique ont pour fonctions d’identifier les centres d’intérêt des

usagers de la veille et de faciliter la recherche, l’analyse et la diffusion de l’information et des

connaissances.

La valeur ajoutée de ces outils réside dans leur capacité à :

- Echanger divers formats à partir de supports multiples ;

- Modérer le manque de contrôle sur la masse d’informations ;

- Extraire des informations pertinentes…

Les techniques classiques de recherche d’information s’avèrent insuffisantes parce qu’elles

sont adaptées à des environnements statiques. De ce fait, il faut trouver de nouvelles

techniques pour relever le défi d’une recherche d’information plus intelligente sur la toile du

Web.

Le processus de veille permet de déterminer le « qui fait quoi ». Les spécialistes de

l’information qualifiés de spécialistes de domaine, et les responsables du traitement de

l’information sont tous mis à contribution.

Page 36: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

33

Les types d’outils nécessaires aux fonctions de veille peuvent être identifiés mais le problème

qui se pose est l’examen de la performance de ces outils.

1.1. Premier type d’agents

Un outil de veille est un outil qui génère une information correspondant à un profil d’intérêt.

Les technologies de « pull = tirer » sont indispensables au processus de collecte de

l’information qui est à la base des fonctions documentaires aussi bien que de veille.

La finalité des agents pull est d’aider l’utilisateur à mieux veiller un ou plusieurs sites web et,

éventuellement, les archives des forums de discussion ou des listes de diffusion qui

intéressent les utilisateurs. L’utilisateur commence sa requête en paramétrant un agent de type

pull à partir de mots clés ou d’expressions plus longues. La tâche est déléguée à cet agent

comme un moteur ou un méta-moteur. Cependant, l’utilisateur interagit avec le programme en

transformant la requête en fonction des résultats trouvés par l’agent. Nous citons à titre

d’exemple de ces agents : les agents d’alerte par e-mail et les agents d’alerte off-line6.

1.2. Deuxième type d’agents

Un deuxième type d’outils émerge actuellement et s’appuie sur la technologie de push. Lors

de la diffusion de l’information, la technologie de « push = pousser » est intégrée en fonction

de profils d’intérêt dans un contexte de veille.

Elle consiste à transformer le moniteur en écran télé où les informations s’affichent en

fonction d’un profil utilisateur.

Cette technologie adaptée au cadre d’une démarche de veille a pour but de se tenir informé

des évolutions d’un sujet déjà connu. Elle peut s’inscrire dans une démarche de recherche

d’informations visant à combler un manque ponctuel.

Pour trouver l’information adaptée au besoin de l’utilisateur en un temps restreint, différents

systèmes ont été développés. Exemple, de nombreux robots couplés à des moteurs de

recherche (Yahoo, Altavista, Hot bot…) s’appuient sur une indexation des termes contenus

dans les balises des pages HTML.

Nous donnons quelques exemples de systèmes de recherche d’informations :

6 Voir Annexe n°1_CH1

Page 37: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

34

1. LETIZIA7 : ce système détermine les centres d’intérêts de l’utilisateur par l’analyse

des pages parcourues et en explorant les pages liées qui semblent le mieux correspondre à ses

attentes. Il ne garde pas de trace des sessions de recherche effectuées. Le travail est

recommencé à chaque nouvelle recherche, d’où la perte de temps. Ce défaut peut être

généralisé à tous les systèmes du même type proposant des aides ponctuelles à la recherche

d’information.

2. BROADWAY8 : Ce système propose des pages à visiter en recherchant des sessions

similaires à celles effectuées par l’utilisateur. La qualité des recherches augmente au fur et à

mesure de l’acquisition d’expérience de l’utilisateur : voilà comment partager l’expérience

des utilisateurs en construisant un système capable d’analyser puis d’exploiter les stratégies

de recherche.

3. RADIX9 : Il exploite l’expérience des internautes en tant que connaissance à

réutiliser par l’utilisateur. C’est un système d’aide à la recherche d’informations. Il permet

d’établir le besoin d’information. La localisation et le moyen d’atteindre l’information sont

difficiles à déterminer. Il fait l’exclusion des recherches entrant dans un cadre de veille (où

l’utilisateur visite des sites qu’il connaît déjà pour voir s’il y a du nouveau). Il permet aussi

d’exclure les sessions où l’utilisateur n’a pas un but réel de recherche.

Après avoir donné quelques exemples de systèmes de recherches d’informations. Ces

systèmes ont été développés pour répondre aux limites de la perte de temps et donner

naissance à une nouvelle technologie qui est celle des agents intelligents. Cette technologie a

attiré l’attention de la société industrielle et de la recherche académique. Nous citons d’autres

exemples de ces agents : les agents « push on-line » et les agents « push off-line »10.

1.3. Caractéristiques des agents intelligents

Les agents intelligents sont définis comme étant des programmes capables de réagir et de

s’adapter à leur environnement. Ils peuvent prendre des décisions et enrichir eux-mêmes leur

propre comportement sur la base d’observations qu’ils effectuent lors des actions pour

7 Lieberman, “An automated channel surfing interface agent for the Web”, in Proceedings of the 5th International WWW Conference, Paris, 1996. 8 Jaczynski et Trousse, 1997 9 Corvaisier et al., « Information retrieval on the WWW using a decision making system », in actes de la conférence « Recherche d’information assistée par ordinateur » (RIAO 97), 1997. 10 Voir Annexe n°1_CH1.

Page 38: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

35

lesquelles ils sont programmés. Les agents peuvent intervenir à tous les niveaux de

l’architecture de veille, aussi bien pour la surveillance et le traitement que pour la diffusion.

Les agents intelligents peuvent fournir des services personnalisés en surveillant les types

d’informations demandées par un utilisateur et en leur envoyant des informations leur étant

reliées par courrier électronique ou sur une page Web personnelle. Exemples d’agents :

AgentSoft, InfoMagnet, Lalo et Seagate Software.

Au cours des années 90, il y eut une mobilisation de la part des chercheurs pour définir la

notion d’agent intelligent. La difficulté de définir cette notion réside dans le fait qu’elle peut

faire partie de différents champs de recherche.

Auteurs Définitions Smith, Cypher et Spohrer (1994) Russel et Norvig (1995) Maes (1994)

Les agents « intelligents » sont des programmes informatiques mobiles. Pour ces auteurs, l’agent intelligent est une entité logicielle persistante, dédiée à des buts spécifiques. L’agent intelligent est tout objet percevant son environnement à travers des détecteurs et agissant sur cet environnement grâce à des actionneurs (Robot). Les agents intelligents sont des systèmes informatiques qui existent dans un environnement complexe et dynamique, perçoivent et agissent de façon autonome dans cet environnement. Ils réalisent un jeu d’objectifs et de tâches pour lesquels ils sont conçus. Critique au niveau de cette dernière définition : L’agent autonome ne peut pas s’étendre à la fixation d’objectifs. L’agent réalise ses missions en faisant des transactions avec d’autres agents et c’est ici qu’on peut s’interroger sur les coûts de transaction entre agents intelligents.

Tixier (1990) Focalisation sur la fonction d’agent. Ces programmes sont considérés comme des serviteurs dédiés à une maîtrise d’œuvre. Application dans le domaine de Marketing direct en amont (C’est le niveau 1 ou 2 sans recours à la mémoire)

Hayes-Roth (1995) Franklin et Graesser (1996) Wooldridge et Jennings(1995)

Focalisation de la fonction « intelligence » L’agent intelligent est un système situé dans un environnement et appartenant à cet environnement qui le perçoit, agit sur lui en poursuivant son propre objectif. C’est un système informatique, autonome, social, réactif à l’environnement et pro-actif. Ce système ou cet agent a trois aspects :

Page 39: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

36

- Perception des changements dynamiques de l’environnement. - Actions sur cet environnement. - Modèles de raisonnement permettant d’interpréter les perceptions, de déduire et de définir les actions.

Tableau 5. Evolution de la définition des agents intelligents (David et Monod, 1997)

Parmi ces définitions, celle de Wooldridge et Jennings (1995) clarifie l’utilité de ces systèmes,

ainsi que leurs caractéristiques (cette partie sera détaillée dans le deuxième chapitre).

2. TIC, information et processus de la prise de décision

La façon de prendre une décision n’a pas pour seule importance d’aider à arrêter des choix

d’investissements, de gestion de stocks, de concession dans une négociation ou de stratégie à

long terme d’une entreprise.

Elle intéresse également les économistes, les sociologues et autres spécialistes des sciences

sociales pour représenter les comportements d’acteurs dans les systèmes qu’ils étudient.

On s’aperçoit ainsi que le mot décision désigne à la fois, en français, le produit de la réflexion

et le processus de réflexion ou de calcul lui-même, tandis que l’anglais sépare, à juste titre,

decision de decision-making. En même temps, le quadruplet – croyances, désirs, rationalité,

turbulence de l’environnement – ouvre sur une typologie possible des nombreux modèles de

la décision. Le terme « décision » est toujours lié aux « DSS : Systèmes d’aide à la décision ».

Une étude11 a été faite pour montrer la cohérence entre les centres de recherche en

management des systèmes d’information. Les auteurs de cette étude ont cherché à trouver des

signes de recherche cumulatives, en sélectionnant les termes DSS et décision. Ils ont trouvé

que les articles produits sur ce sujet entre 1990-1994 sont plus importants qu’entre 1995-

2000. Dans la première période, ils ont noté la construction de théorie là où il y a l’utilisation

des résultats antérieurs pour étendre les idées futures à travers le test et la discussion de

théories. Dans la deuxième période, ces auteurs ont marqué la production faible de

publications et l’absence de construction de théorie. Malgré l’évolution rapide du terme

« DSS », le terme « décision » est plus riche en terme de connexions aux autres notions. De ce

fait, ces auteurs ont essayé de montrer l’évolution de ce terme en étudiant le lien entre

« GDSS » et groupe, ainsi qu’entre « GSS » et groupe. Nous remarquons que la notion de

décision a été séparée du terme Système d’aide. Les résultats de cette étude sont résumés dans

ce tableau :

11 T.J. Larsen & L.Levine, “ Searching for management information systems : coherence and change in the discipline”, Information Systems Journal, Vol.15, n°4, Oct 2005.

Page 40: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

37

Entre 1990-1994 Entre 1995-2000 Pair des termes

Nombre des articles

Nombre des théories construites

Pourcentages des théories construites

Nombre des articles

Nombre des théories construites

Pourcentages des théories construites

DSS-Décision

31 4 12.9 9 0 0.0

GDSS-Groupe

15 0 0.0 7 0 0.0

GSS-Groupe

29 1 3.4

Tableau 6. Construction des théories dans les articles de Management des systèmes d’information (Larsen et Levine, 2005)

Dans notre étude, nous nous sommes focalisés sur l’application des technologies d’accès et de

traitement de l’information en tant que systèmes intelligents afin de montrer le lien entre la

qualité et l’utilité perçue de ces systèmes et l’intention de leur utilisation dans le processus de

prise de décision. Dans cette première sous-section nous limitons notre étude de présenter le

modèle de Simon pour adopter les phases du processus de prise de décision dans notre modèle

théorique.

2.1. Modèle de Simon : Cadre de référence

Le vocable «système de traitement de l’information» permet de désigner commodément la

lignée du modèle issu de la pensée de Simon (1980).

Herbert Simon a proposé, dans plusieurs articles et ouvrages des années soixante et soixante-

dix, un schéma de la prise de décision. Ce modèle distingue trois phases du processus de

décision :

- Une phase de diagnostic d’un problème et d’exploration - reconnaissance des

conditions dans lesquelles il se pose: c’est la phase d’intelligence (au sens militaire

de renseignement);

- Une phase de conception et de formulation de voies possibles offertes à la résolution

du problème: c’est la phase de conception;

- Une phase de choix d’un mode d’action particulier parmi les actions possibles: c’est

la phase de sélection;

Cet ensemble de propositions se fonde sur trois remarques :

Page 41: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

38

- Les décisions ne sont pas toutes de même nature ni de même niveau. Certaines

décisions sont dites « programmables » : Il s’agit de la présence d’un automate,

correctement informé et programmé, est en mesure de les prendre aussi bien que

l’homme lui-même, et dont la capacité est singulièrement limitée. Notamment, des

ensembles humains ou des interfaces hommes-machines sont concernés, les

décisions sont dites «non-programmable». Les phases d’intelligence et de conception

sont véritablement les phases clés du processus de décision.

- On pourrait se donner pour programme de recherche de tenter de formaliser la

démarche décisionnelle à travers les trois phases évoquées. Une autre voie consiste à

essayer d’améliorer la façon dont les hommes utilisent leurs capacités de

raisonnement et de traitement des informations. Au lieu de chercher à désigner une

décision « optimale », il est plus modeste dans les objectifs de chercher à user d’une

procédure de traitement de l’information et de raisonnement plus satisfaisant. La

rationalité «limitée» ou «procédurale» vient ainsi se substituer à la rationalité

optimisant et «substantive».

- Enfin, le fait qu’on se place dans le cadre d’une organisation comportant

évidemment des départements, des tâches... non totalement intégrés, introduit une

contradiction avec la nécessité de traiter simultanément dans le temps et partout dans

l’organisation l’ensemble des données et des informations disponibles. Les

problèmes de coordination se heurtent à des difficultés compliquées.

Aussi, dans le modèle S.T.I., les trois phases de la décision ne se présentent-elles pas de façon

linéaire, mais en boucles. De nombreuses itérations sont nécessaires, au vu de la faible

capacité cognitive des hommes et de la complexité des problèmes de décision. (H. Simon).

Par ailleurs, le processus de décision est mis en œuvre, dans une organisation, par un système

de décision, lui-même complexe et dont l’action du décideur peut donner une représentation

dégradée et être une source d’erreurs de décision si elle conduit à ignorer les difficultés de

communication et de coordination.

Nous mettons en évidence l’implication de l’utilisation des « software » (logiciels) sur le

processus de la prise de décision. Autrement dit, dans quelle phase du processus l’agent

intelligent peut-il intervenir ?

Page 42: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

39

2.2. Information et prise de décision

Comme nous l’avons déjà défini dans les sections précédentes, « l’information est une

différence qui produit une différence » écrit Bateson. Selon Rowe et Marciniak (1997), la

première différence est une donnée, un signal ou un ensemble de données perçues en même

temps. La seconde différence est de l’ordre de la représentation mentale d’une connaissance

ou d’un problème. L’information résulte de la transformation d’une donnée. La connaissance

résulte de la transformation d’une information.

L’état de cette transformation peut être schématisé comme suit :

Figure 6. Transformation des données en connaissances (Turban & Aronson 12)

L’information dépend donc de l’individu récepteur. Elle n’existe pas en soi, elle est

conditionnée par la représentation mentale d’un sujet.

« Informer c’est fournir des représentations pour résoudre des problèmes » (Reix, 1995)

La représentation de l’information joue un rôle dans la résolution des problèmes. Pour

résoudre un problème, la prise de décision est devenue de plus en plus difficile. Cela est dû à

la difficulté de choix entre différentes possibilités, aux coûts supportés par les erreurs ou à

l’incertitude concernant le futur.

La prise de décision peut être améliorée en ayant recours aux connaissances concernant

l’organisation, les produits, les marchés, l’industrie, le passé, le futur, …

Pour prendre de « bonnes » décisions, il faut que les dirigeants sachent faire la distinction

entre donnée et information.

Les données sont des symboles qui représentent ou décrivent des objets et des événements

ainsi que leurs caractéristiques.

12 www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

Connaissance Compréhension

Information Signification

Donnée Faits

Page 43: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

40

Les informations se sont les données qui ont été traitées à travers une forme significative pour

le destinataire. Cette forme a une valeur réelle et perçue dans les décisions ou les actions

actuelles et/ou éventuelles.

Les connaissances résultent tout simplement de la compréhension des informations et des

données.

Nous pouvons présenter le lien entre l’information et la décision après sa transformation dans

la figure 7 :

Figure 7. Donnée-Information-Connaissance (Turban & Aronson13)

Les outils traditionnels de la prise de décision sont le hardware et le software. Ces derniers se

sont intégrés en croissance dans le package des systèmes ! ( Par exemple : Les systèmes de

réservations dans les agences de voyages, les systèmes de publication …)

Récemment, la conception des systèmes s’est focalisée à la fois sur l’efficience (atteindre un

objectif en exigeant les moindres ressources) et l’efficacité (parvenir un objectif intentionné).

Dans le monde réel des entreprises, l’information a un cycle de vie bien déterminé. Ce cycle

de vie peut être décomposé en quatre phases :

- Capture : saisie et rétention instantanée de l’information ;

- Stockage : conservation de l’information et maintien de sa disponibilité en vue de sa

consultation et/ou de sa modification ;

- Archivage : stockage de l’information figée et inaltérable en vue de son éventuelle

consultation ;

13 www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

Décision

Connaissance Information Donnée

Action

Page 44: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

41

- Destruction : destruction de l’information après la période légale d’archivage et

garantie de son indisponibilité définitive.

Chaque phase correspond bien à l’utilisation d’outils de Business Intelligence spécifiques

et/ou adaptés à son état. De ce fait, nous passerons à la sous section suivante pour découvrir le

lien entre les technologies de l’information en tant qu’infrastructure informatique et le cycle

de vie de l’information.

2.3. TIC et information

Les technologies de l’information telles qu’Internet, les messageries électroniques et les

applications multimédias contribuent à l’augmentation exponentielle des volumes de données.

La maîtrise de cette croissance est une problématique essentielle pour les responsables

informatiques. Ces derniers doivent affiner l’infrastructure de leur système d’information pour

le mettre au service des performances de l’entreprise tout en maîtrisant des budgets toujours

sous pression. La continuité de traitement, la disponibilité permanente ainsi que la

sécurisation des données nécessitent un changement complet des architectures informatiques.

La définition de cette infrastructure technologique (technologie informatique) est une

réflexion fondamentale pour chaque entreprise. Le but de cette infrastructure est de servir les

objectifs de l’entreprise, de répondre à ses besoins actuels et d’en accompagner l’évolution.

Chaque entreprise doit définir sa propre infrastructure en fonction de facteurs caractéristiques.

Nous pouvons citer la taille de l’organisation, sa répartition géographique mais aussi son

secteur d’activité ou sa volonté d’utiliser la technologie informatique comme source de

différenciation voire d’avantage concurrentiel.

L’adoption généralisée des outils informatiques provoque une dépendance accrue des

entreprises vis-à-vis de leur infrastructure.

La fiabilité et la disponibilité des produits et services de traitement de l’information

(informatique et télécommunications) sont très reconnus.

En effet, la qualité moyenne des outils informatiques s’est considérablement améliorée avec la

diffusion et la standardisation de ces produits et services.

Cependant, la qualité réelle d’une infrastructure technologique d’entreprise n’est pas

seulement la somme des qualités de ses composants. Elle résulte de l’intelligence mise en

Page 45: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

42

œuvre dans sa conception, son exploitation et son financement au service des objectifs et des

contraintes propres à l’entreprise.

Il est essentiel pour l’entreprise d’optimiser en permanence le design de son infrastructure afin

de satisfaire au meilleur coût ses besoins et obligations.

Dans un cadre pratique, de nombreuses entreprises et sociétés de conseil prennent en compte

quatre axes d’optimisation en les appliquant pendant les quatre phases du cycle de vie de

l’information. Ces axes d’optimisation sont les suivants :

- Volume : quantité d’informations susceptibles d’être capturées, stockées et

manipulées à court terme.

- Accessibilité : capacité d’accès à l’information par différents moyens et niveaux

d’agrégation.

- Disponibilité : garantie d’un degré de disponibilité de l’information.

- Sensibilité : éléments liés à la sécurité pris en compte pour protéger l’information en

fonction de son degré de confidentialité dans le cadre de règles internes ou externes.

Détaillons l’application de ces axes d’optimisation pendant les phases du cycle de vie de

l’information.

Dans la phase de capture de l’information, l’infrastructure technologique de l’entreprise doit

permettre à tout instant cette saisie / capture de l’information. Durant cette phase, la gestion

du volume de stockage doit garantir la disponibilité permanente d’une capacité instantanée

suffisante. La capacité nécessaire à un instant t doit permettre de faire face à un afflux massif

d’informations. Ce volume dépend donc des applications mises en œuvre.

Cette capacité de saisie doit être accessible par tous les moyens utilisés pour capturer

l’information (PCs locaux ou distants, Web…).

Dès sa capture, l’information est susceptible d’être réutilisée, elle doit donc être

immédiatement disponible dans le cadre du système d’information de l’entreprise.

Cette disponibilité immédiate est la base même du concept d’entreprise temps réel. Elle

interdit les traitements traditionnels par lots créant un décalage entre la saisie de l’information

et sa prise en compte par l’ensemble du système d’information.

Enfin, dès leur saisie, les informations doivent être protégées selon des règles de

confidentialité correspondant à leurs degrés de sensibilité.

Page 46: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

43

Au delà de la conservation instantanée de l’information au moment de sa saisie initiale,

l’infrastructure doit garantir le stockage des données pendant toute leur vie « active ». La vie

« active » de l’information peut se définir comme étant la période pendant laquelle la donnée

est susceptible d’être modifiée, et servir de base à des traitements de production.

Durant cette période dont la durée est extrêmement variable, le stockage suppose la

disponibilité de volumes adaptés.

Ces informations doivent être accessibles par l’ensemble des logiciels et dispositifs utilisés

dans l’entreprise en respectant des règles de confidentialité.

La fin de la vie « active » de l’information correspond à sa phase d’archivage. Dans cette

phase, la donnée n’est plus susceptible d’être modifiée mais elle doit être figée et conservée

en l’état sans possibilité de modification. Les volumes à mettre en œuvre prennent une toute

autre dimension car il s’agit de conserver sur de longues périodes des quantités de données en

croissance permanente. L’accessibilité des archives est un problème complexe.

En effet, l’information ancienne doit rester accessible indépendamment de l’évolution des

outils utilisés pour la produire.

Le système informatique de l’entreprise est en perpétuelle évolution. Il est impensable de le

figer ou de conserver opérationnel toutes ses évolutions successives. Les archives doivent être

accessibles par elles-mêmes. La disponibilité est un aspect moins crucial en ce qui concerne

les archives que l’on doit pouvoir consulter dans un délai raisonnable.

Enfin, la sensibilité des données doit être tout particulièrement prise en compte dans les

opérations d’archivage afin de garantir la protection des données confidentielles sur de

longues périodes.

La dernière étape du cycle de vie de l’information est celle de la destruction. Elle ne doit pas

être négligée. Cette étape permet de libérer l’entreprise d’opérations complexes de maintien

des informations archivées et surtout de satisfaire bon nombre d’obligations légales prévoyant

la disparition d’informations sensibles.

La définition de l’infrastructure technologique optimum dépend à l’évidence en partie des

applications et logiciels utilisés par l’entreprise. L’analyse de ces applications sera détaillée

dans le chapitre 2.

Page 47: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

44

Dans ce paragraphe, nous nous limiterons à expliciter la relation entre les applications de la

Business Intelligence (ou veille stratégique) et l’infrastructure technologique dans un cadre

pratique.

Longtemps, la Business Intelligence est resté confiné dans les hautes sphères dirigeantes des

entreprises. En fournissant des tableaux de bord à quelques responsables, les outils de

Business Intelligence servaient à piloter et à gérer. La démocratisation de ces outils, la volonté

de plus en plus courante de diffuser l’information au plus près des responsables à tous les

niveaux de l’entreprise font de la Business Intelligence le meilleur outil de gestion des

performances.

L’objet de ces applications est de fournir à chacun les informations lui permettant de gérer son

activité et donc d’atteindre ses objectifs et d’optimiser ses performances.

Outre la révolution organisationnelle induite par la mise en œuvre de ces outils, la Business

Intelligence a un impact considérable sur l’infrastructure technologique de l’entreprise.

Tout d’abord, la réussite de la « Business Intelligence » repose sur la capacité de la prise en

compte et d’analyse de l’ensemble des informations disponibles. Les volumes de données à

traiter peuvent donc être considérables.

A titre d’exemple, les milliards de lignes éditées chaque jour sur les tickets de caisse de

supermarchés constituent des masses précieuses d’informations mais aussi des volumes

gigantesques à extraire des systèmes opérationnels et à traiter.

L’une des particularités des outils de Business Intelligence est leur séparation des systèmes

opérationnels. Ce sont des outils qui touchent le niveau stratégique de l’organisation.

Cette scission a pour but d’éviter de pénaliser les systèmes opérationnels en leur demandant

d’assurer des traitements lourds (tris, extractions, calculs…). Cette séparation permet de

protéger des données opérationnelles en n’autorisant leur analyse qu’à posteriori. Il est donc

nécessaire d’extraire massivement les informations des systèmes opérationnels pour les

injecter dans des outils spécifiques de type datawarehouse et bases de données multi-

dimensionnelles. La fréquence de ces extractions doit être adaptée aux besoins d’analyse

(quotidienne, hebdomadaire, mensuelle…). Enfin, ces extractions doivent permettre la

constitution de séries de données historiques sur des périodes plus ou moins longues selon les

besoins. Ces volumes doivent être protégés non seulement à cause de leur taille mais à cause

de la sensibilité et de l’éventuelle confidentialité des informations qu’ils contiennent.

Page 48: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

45

Une étude a été réalisée sur la mise en application d’un modèle théorique dans un terrain de

recherche concret qui concerne une approche d’évaluation d’un projet d’implantation d’un

data warehouse dans une organisation financière. Cette étude a identifié les impacts

organisationnels dus spécifiquement au data warehouse étudié et leur mise en relation avec le

contexte de changement organisationnel dans le but d’évaluer la performance et l’impact de

cet outil dans une perspective individuelle et organisationnelle. (Kefi, 2002 ; Kalika & Kefi,

2004)

La conception du data warehouse contribue à un intérêt croissant dans l’analyse et l’utilisation

des données historiques accumulées dans les DDS. Pour analyser les données historiques nous

pouvons utiliser les outils de traitement analytique sur-ligne. Cet outil est défini14 comme

étant une catégorie de software qui permet aux analystes, aux managers et aux directeurs de

gagner.

Ce schéma montrera le positionnement des systèmes d’informations par rapport aux niveaux

organisationnels :

Figure 8. Systèmes d’information et niveaux organisationnels (Turban & Aronson15)

De ce schéma nous pouvons déduire le lien entre le développement ou l’évolution des

systèmes d’information et les niveaux de transformation de l’information. Ceci montre bien

l’utilité de chaque système pour chaque niveau.

14 OLAP Council, Definitions, http://www.dssresources.com/glossary/olaptrms.html, 1997. 15 www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

Systèmes exécutifs d’information (Executive Information Systems : EIS) Systèmes d’aide à la décision (Decision Support Systems : DSS) Systèmes expert (Expert Systems :ES)

Systèmes de management d’information (Management Information Systems :MIS)

Systèmes de traitement des transactions (Transaction Processing Systems : TPS) Opérationnel

Tactique

Stratégique

Page 49: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

46

Figure 9. Compatibilité du développement des systèmes d’information avec la transformation de donnée (Turban et Aronson)

Donnée

Information

Connaissance

TPS

MIS / DSS...

ES / Intelligent Agents / Neural Networks…

Page 50: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

47

Conclusion

Le but de ce premier chapitre est de montrer l’évolution des concepts théoriques au cours de

ces dernières années afin d’éviter la confusion de définitions pour chaque concept ou

combinaison de termes.

Dans la première section de ce chapitre, nous avons commencé à définir la veille stratégique

et les différentes terminologies utilisées par les auteurs. Nous avons conclu que la veille

stratégique et l’intelligence des affaires sont synonymes, alors que l’intelligence compétitive

est une branche spécialisée de la veille stratégique parce qu’elle concerne le traitement de

l’information externe venant des compétiteurs…

Nous avons défini le concept de traitement de l’information parce que nous avons comme

cible de recherche les technologies d’accès et de traitement automatique de l’information.

Enfin, nous avons défini le concept des systèmes d’information pour vérifier si la veille

stratégique peut être considérée comme un système d’information. Lesca N. (2003) fait le

rapprochement entre les deux définitions pour déduire que la veille est un système

d’information. Dans notre étude nous séparons les deux notions du fait que le premier est un

processus alors que le second est un ensemble de matériels humains et non-humains. Ces deux

blocs ont presque les mêmes technologies de l’information à utiliser.

C’est pour cette raison que dans la deuxième section, nous avons essayé de montrer

l’utilisation des technologies de l’information comme outil de la veille stratégique. Ensuite,

nous avons abordé la question des TIC en tant que support du processus de prise de décision

en se focalisant sur le modèle de Simon. Ceci dans le but de voir l’impact des SIAD sur le

processus de prise de décision à savoir que les SIAD ne représentent qu’un exemple des TIC.

Cela est dû à l’apparition de différentes formes de technologie d’information. Les DSS se

limitaient auparavant aux bases de données, à la modélisation, et la fonctionnalité de

l’interface de l’utilisateur, mais les innovations technologiques peuvent attribuer aux DSS une

fonctionnalité plus puissante. Les DSS (Systèmes d’aide à la décision) ont soutenu les

preneurs de décision sous une perspective individuelle, mais ensuite ces technologies ont été

appliquées aux groupes de travail ou aux équipes et en particulier aux équipes virtuelles.

(Shim et al., 2002)

Au début des années 1990, quatre outils puissants ont émergé pour la conception des DSS.

Page 51: thèse dauphine - nombreux documents chercheurs +

Chapitre 1

48

Le premier nouvel outil pour l’assistance à la décision a été le data warehouses. Les deux

nouveaux outils qui ont émergé suite à l’introduction du data warehouses16 sont : Traitement

analytique sur-ligne (OLAP17 : On-Line Analytical Processing) et le data mining. Le

quatrième outil nouveau est la technologie associée avec WWW (World Wide Web).

LeWeb occupe un énorme intérêt dans ces dernières années et il peut avoir un grand impact

dans les prochaines années.

Les racines de conception du data warehouse sont liées aux technologies de bases de données.

Codd proposait un modèle de données relationnel pour les bases de données en 1970. Ce

modèle conceptuel a un grand impact à la fois sur les systèmes de traitement de transactions

des affaires et les systèmes d’aide à la décision.

La spécification récente de ce modèle18 appliqué au traitement automatique sur-ligne (OLAP)

a un grand impact sur la création des systèmes d’aide à la décision sophistiqués.

Dans les années 1990, peu de data warehouses conçus ont existé. Les travaux de Inmon

(1992), Devlin & Kimball ont prédit que le data warehouse est une solution pour l’intégration

des données auprès de diverses bases de données opérationnelles afin d’assister la gestion de

prise de décision. Cet outil est un sujet orienté, intégré, à des moments variés, pour la

collection des données non volatiles (Inmon, 1992).

En revanche, nous remarquons l’absence de débat sur l’utilisation de technologies de bases de

données relationnelles et multidimensionnelles pour le traitement automatique sur-ligne

(Thomesen, 1997, Watson & Gray, 1997)

Le développement rapide de ces outils technologiques nous incite à passer à un deuxième

chapitre qui cherche à étudier les caractéristiques et l’application des technologies d’accès et

de traitement de l’information au sein des entreprises.

16 Ou entrepôt de données, est une collection de données structurées consolidant les informations issues de différents systèmes opérationnels. Il est dédié à l’aide à la décision. 17 Englobe des outils de stockage et de manipulation de données multidimensionnelles. 18 Codd E.F. & Associates, « Providing OLAP to user-Analysts : An IT Mandate », a white paper, commissioned by Arbor Software (now Hyperion Solutions) 1993.

Page 52: thèse dauphine - nombreux documents chercheurs +

CHAPITRE 2

Technologie des agents intelligents :

caractéristiques et applications

“ Aucun prix Nobel n’a été attribué à une machine ou à un logiciel”

Goumeziane S., Lors d’un entretien, le 3 Mars 2006.

Page 53: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

50

Introduction

Dans ce deuxième chapitre, nous explicitons les caractéristiques et les applications de la

technologie de traitement automatique de l’information dans différents domaines.

Dans la première section de ce chapitre, nous tentons de définir les agents intelligents, de les

classifier selon leurs propriétés et leurs caractéristiques. Cette classification permet de mieux

comprendre le rôle des agents intelligents ainsi que leurs domaines d’applications.

Dans la deuxième section, nous essayons d’éclairer l’utilisation des agents intelligents à

travers la première phase d’exploration du terrain et les difficultés rencontrées suite à cette

phase.

Section 1 : Utilisation de la technologie Agents Intelligents

1. Définition des agents intelligents

Un agent est une entité logicielle ou physique à laquelle est attribuée une tâche. Il est capable

de l’accomplir de manière autonome et en coopération avec d’autres agents pour former un

Système Multi Agents (SMA). L’intelligence artificielle s’est focalisée sur la modélisation

des capacités intelligentes d’une unique entité pour résoudre des problèmes, il en a résulté une

première génération de programmes informatiques.

A partir de la fin des années 70, l’accent a été mis progressivement sur une résolution

distribuée de problèmes, par la coordination de certains nombre d’agents rationnels, c’est ce

qu’on a commencé à appeler des « SMA ». On utilise également le terme d’intelligence

artificielle distribuée (DAI) pour montrer l’opposition avec l’intelligence artificielle classique,

autarcique et centralisée. Un système multi agents est un ensemble organisé d’agents, cet

ensemble signifie que dans un système multi agents, il existe une ou plusieurs organisations

qui structurent les règles de cohabitation et de travail collectif entre agents (définition des

différents rôles, partages de ressources, dépendances entre tâches, protocoles de coordination,

de résolution de conflits…).

La définition d’un agent intelligent reflète la dualité :

- c’est celui qui accomplit une mission,

- c’est celui qui comprend et s’adapte aux objectifs.

Page 54: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

51

La fonction agent : c’est l’exécution de la mission.

La fonction intelligence : c’est la compréhension et l’adaptation aux objectifs.

Le mot « intelligence » vient du latin et signifie (Lesca, 2003):

- (ligere ou legere) : savoir discerner des éléments, faire des choix (élire) parmi ces

éléments et les recueillir (ou encore les collecter) ;

- (IntelLigere) : savoir établir des liens entre eux pour former un ensemble signifiant.

L’idée de Negroponte (1970) est d’employer les agents comme une interface de tâches

humaines. Ce thème a été utilisé par les firmes spécialisées en informatique (HP, Apple,

Digital…) dès 1990 pour illustrer leur vision. Pour montrer l’enjeu des agents intelligents on a

eu recours aux sciences de gestion et aux approches cognitives.

L’intelligence d’un système dans un environnement complexe est définie par son temps de

réponse entre la détection du besoin exprimé de son client et la réponse adéquate à ce besoin

(Le Moigne, 1990).

Ferber (1995) définit l’agent comme étant une entité physique ou virtuelle agissant dans un

environnement, communiquant directement avec d’autres agents, possédant des ressources

propres, capable de percevoir partiellement son environnement, disposant d’une

représentation partielle de l’environnement, possédant des compétences. Son comportement

tend à satisfaire ses objectifs en tenant compte des ressources et des compétences dont il

dispose, et en fonction de sa perception, de ses représentations et des communications qu’il

reçoit.

D’après cette définition, nous comprenons que l’agent est à la fois une entité physique (il agit

dans le monde réel) et une entité virtuelle (composant logiciel, module informatique)

Récemment, Jennings, Sycara et Wooldridge (1998) définissent l’agent intelligent comme

étant un système informatique, autonome, social, réactif à l’environnement et pro-actif. Ce

système ou cet agent a trois aspects :

- Perception des changements dynamiques de l’environnement.

- Action sur cet environnement.

- Modèles de raisonnement permettant d’interpréter les perceptions, de déduire et de

définir les actions.

Les agents sont capables :

Page 55: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

52

- D’agir : Cette action repose sur le fait qu’ils accomplissent des actions qui vont

modifier l’environnement des agents et donc leurs prises de décisions futures.

- De communiquer entre eux : C’est l’un des modes principaux d’interaction existant

entre les agents.

- D’être autonomes : Ils ne sont pas dirigés par des commandes venant de l’utilisateur

mais par un ensemble de tendances qui peuvent prendre la forme de buts individuels

à satisfaire.

Les agents intelligents sont hétérogènes, on distingue :

- Agents utilisateurs : Ils encapsulent les bases de données héritées et les sources

d’informations. Leur rôle c’est d’interfacer les utilisateurs.

- Agents médiateur : Ils ont pour effet d’unifier les besoins informationnels aux

ressources existantes.

- Agents ressource : Ils sont déployés au niveau de n’importe quelle source

d’information indépendamment de sa localisation ou de sa plateforme de

développement. Ils sont capables d’accéder aux sources hétérogènes.

Côté et al. (2001) proposent une architecture multi agents conçue pour œuvrer sur des sources

hétérogènes situées dans un environnement dynamique. Ces auteurs font apparaître trois

couches abstraites de NetSA. Ces trois unités font référence à la technologie-agent et à

l’interaction entre ces agents. Ici on va voir la nature de médiation entre agent-agent.

- Unité de communication avec l’utilisateur : Cette unité traduit la relation entre

NetSA et l’utilisateur. Elle comprend des agents inter agissants avec l’utilisateur

pour l’aider à réaliser une tâche précise. La transformation du langage de l’utilisateur

en actes du langage KQML19 facilite la communication avec les agents de l’unité de

traitement. Cette unité vérifie la consistance des données fournies par l’utilisateur.

- Unité de traitement et de médiation : Cette unité reçoit les requêtes et les

informations fournies par l’utilisateur. Ces requêtes vont être décomposées en sous

plans. Ce dernier est une succession d’actions à exécuter. Cette unité comporte une

partie de médiation pour rechercher des données dans le système multi agents. Elle

dirige les agents vers la ressource désirée en fournissant le nom de l’agent qui s’en

charge.

19 KQML: Knowledge Query Manipulation Language

Page 56: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

53

- Unité d’interrogation et d’extraction d’informations : Cette unité est composée

d’agents formant une interface entre les bases de données et l’unité de traitement

d’informations. Ces requêtes KQML reçues sont traduites en SQL20 pour interroger

des bases de données ou la page HTML21 de l’internet. De ces bases les agents

retirent l’information pertinente qui sera par la suite redirigée vers l’unité de

traitement de l’information.

Le marché virtuel forme un domaine d’application de ces trois unités. En effet, les vendeurs

proposent des produits aux acheteurs qui contrôlent si la description correspond à leurs buts.

S’ils se mettent d’accord, ils commencent à négocier les prix en utilisant des règles données

par leurs supérieurs respectifs. Des systèmes d’intermédiaires proposés par Collins (1998) et

des agents de médiation cités par Kuokka (1998) ont été développés pour arbitrer le processus

de négociation. Ces intermédiaires reçoivent les requêtes d’un agent demandeur au moyen de

descriptions de produits et des offres, de la part des fournisseurs. Après avoir trouvé la

meilleure correspondance, l’agent médiateur peut se contenter de lancer le processus de

communication, restant en tant qu’arbitre ou intermédiaire de confiance entre les

protagonistes.

2. Classifications et caractéristiques des agents intelligents

Devant l’absence de théorie il est difficile de déterminer la fréquence d’utilisation de l’agent

en fonction de sa classe dans l’application, nous présentons dans cette section les

classifications théoroiques proposées dans les trois domaines suivants : intelligence

artificielle, commerce/industrie et web.

2.1. Classification et caractéristiques des architectures d’agents

intelligents

L’architecture décrit les composantes fonctionnelles d’un agent et la manière dont elles

interagissent. C’est la structure logicielle qui produit un ensemble d’actions sur

l’environnement ou sur les autres agents. Selon Shaw et al.(1995), la description fournie par

l’architecture est constituée de composants (correspondants aux fonctions) de l’agent et des

interactions entre ceux-ci (flux de données et de contrôle).

20 SQL: Structured Query Language 21 HTML: Hypertext Mark-up Language : langage informatique qui définit la syntaxe des pages Web.

Page 57: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

54

La question qui mérite d’être posée est la suivante : Comment peut-on appliquer la « bonne »

architecture au problème spécifique ?

Müller (1997) répond à cette question en proposant onze axes directifs, essayons de les citer

afin de faire une comparaison avec ce qui se passe en pratique :

1er axe : Vérifier prudemment si on a vraiment besoin d’un agent ou d’un autre

programme qui peut faire la tâche pour résoudre le problème de l’application.

Wooldridge (1999) a caractérisé l’environnement auquel on a affaire par les propriétés

suivantes :

- Il est virtuel parce que les agents le perçoivent avec des capteurs logiciels et qu’ils

agissent en utilisant des programmes et autres modules.

- Il n’est pas déterministe : les agents agissent mais il n’y a aucune garantie de succès.

- Il ne peut pas être considéré comme épisodique : le passé doit être pris en compte

car il a une grande influence sur le présent particulièrement dans des interactions

commerciales.

- Il est fortement dynamique : les marchés, les bases de données et les sites WEB ne

cessent d’évoluer en reflétant l’activité humaine.

- Il doit être considéré comme continu car l’ensemble d’actions potentielles est infini.

2ème axe : Le fait d’avoir une architecture A utilisée avec succès pour construire

l’application de la classe P et non utilisée dans le traitement d’application de la classe Q, ne

signifie pas que A ne peut pas être appropriée pour traiter Q.

3ème axe : Si notre problème exige des agents hardware autonomes, et qu’on se rend

compte qu’on est mieux servi par un autre agent hybride, une approche purement réactive

peut être appliquée si on trouve une décomposition de notre système qui nous permet de

définir des agents simples (exemple : agents auto-organisateurs).

4ème axe : Si notre problème exige des agents software autonomes, l’utilisateur peut

choisir entre des architectures robustes comme par exemple dMARS22 et SOAR23.

5ème axe : Si notre problème exige des agents software assistants, et que l’architecture

de l’agent n’est pas définitive, le plus important c’est d’avoir un domaine de fonctionnalité. Il

22 dMARS ou PRS : Procedural Reasoning System 23 SOAR : State OperAter Result

Page 58: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

55

y a beaucoup plus de problèmes dans l’interaction Homme-Machine (Human-Computer

Interaction), modélisation de l’utilisateur et les schémas assortis.

6ème axe : Si notre problème exige des agents hardware assistants, et il n’y a aucun

système valable. La solution c’est de sélectionner une architecture et de l’étendre par l’ajout

d’une fonctionnalité nécessaire dans l’interaction Homme-Machine.

7ème axe : Si notre problème exige des multi agents software, et qu’on veut voir les

exemples présentés sous la catégorie des agents inter agissants. Cependant, s’il y a une grande

interopérabilité des exigences dans notre système (exemple : communication avec les

composantes des non-agents à l’intérieur de la firme) alors on peut courir le risque puisque

aucun système décrit facilement ne se conforme avec l’interopérabilité des normes (Ex.

CORBA comme mécanisme de liaison). Dans ce cas, on doit modifier le niveau de

communication.

8ème axe : Si notre problème exige des multi agents hardware, qu’on sélectionne l’une

des architectures ou systèmes d’agents hardware autonomes, qu’on coopère par nos

connaissances ou qu’on sélectionne l’une des architectures de coopération-centrée en les

élevant en raison de la nécessité de les interfacer à notre hardware, alors une architecture

comme INTERRAP peut être intéressante dans la mesure où elle peut être appliquée dans le

domaine des robots inter agissants.

9ème axe : Il faut faire la distinction entre un agent de recherche sur Internet et un robot.

La plupart des architectures utilisées ont un poids lourd sur le contrôle des robots. Si on fait

partie du domaine software, l’architecture choisie doit :

- être capable d’assurer une multitude de tâches ;

- découpler le niveau bas du message venant de l’interprétation du haut niveau du

message.

- produire un modèle de service affectant les agents pour vendre des services figurés à

travers les tâches.

- se conformer avec l’interopérabilité des normes comme le cas de CORBA afin de

rendre les services de l’agent valables à cette large gamme d’applications.

10ème axe : Dans les applications intéressantes, on n’a pas recours aux architectures

purement réactives ou délibératives. Cependant, on est mieux servi par l’une des architectures

Page 59: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

56

hybrides. Ces systèmes, PRS, RAPS ou SOAR, sont suffisamment stables et matures pour

être un bon choix adapté à chaque système de contrôle autonome.

11ème axe : Si l’adaptabilité est cruciale pour résoudre un problème d’application, on

n’aura pas beaucoup de choix. La recherche a négligé l’habilité d’un agent à apprendre, ainsi

il n’est pas évident de comprendre comment les architectures peuvent assurer l’utilité d’un

agent pour un changement de long terme.

Les approches d’agents réactives fournissent une forme d’adaptabilité à court terme basée sur

le feedback.

D’après les analyses faites sur les capacités disponibles au sein d’un agent par rapport à la

problématique de la coordination entre les agents, on peut rappeler une matrice organisant les

descriptions d’agents en architectures d’agents autonomes, d’agents inter agissants, d’agents

sociaux selon la vision de coordination. Ces trois architectures vont être combinées avec la

classification habituelle qui fera apparaître l’architecture d’agent réactif, d’agent délibératif, et

d’agent hybride sous une vision de raisonnement (Muller, 1997 ; Wooldridge , 1999).

On commence par la classification habituelle qui repose sur une vision raisonnement. De ce

fait, l’agent est considéré comme un système de raisonnement qui vise à déterminer les

actions possibles, à privilégier l’une d’elles et à la mettre en œuvre de manière efficace en

fonction de la situation actuelle de l’environnement ou des autres agents. On identifie trois

groupes d’architectures :

- Agent réactif : c’est une architecture dans laquelle les décisions d’action sont prises

au moment de l’exécution à partir de peu d’informations. L’exécution de l’action suit

le changement de l’environnement immédiatement, c’est à dire, il y aura un couplage

de l’action à la perception. Pour faciliter ce couplage ces architectures n’incluent pas

des représentations symboliques de l’environnement. Le mécanisme de décision est

simple du fait qu’il met l’accent sur la robustesse plutôt que sur l’optimum du

comportement.

- Agent délibératif : il comporte un mécanisme de décision qui consiste en une

délibération explicite sur les possibilités d’action, en utilisant une génération de plans

d’action (Allen, 1990), ou en tenant compte de l’utilité espérée des actions (Russel,

1991). Ce mécanisme est complexe parce que les architectures intègrent une

représentation explicite et symbolique de l’environnement. Le raisonnement consiste

à déterminer les actions pouvant être exécutées dans l’environnement. L’accent est

Page 60: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

57

mis sur l’optimum et sur l’exactitude de comportement au détriment de la robustesse

et du temps d’exécution.

- Agent hybride : c’est le résultat de la combinaison des deux architectures

précédentes. Son objectif est d’atteindre un comportement cohérent avec les buts et

les plans de l’agent.

On passe maintenant à la définition des trois types d’architectures sous une vision

coordination. Demazeau (2001) a proposé une approche appelée VOYELLES et qui consiste à

modéliser un SMA selon quatre facettes : Agent (A), Environnement (E), Interaction (I), et

Organisation (O).

La facette A, désigne l’ensemble des fonctionnalités de raisonnement interne de

l’agent.

La facette E, regroupe les fonctionnalités liées aux capacités de perception et d’action

de l’agent sur l’environnement.

La facette I, regroupe les fonctionnalités liées aux capacités d’interaction de l’agent

avec d’autres agents.

La facette O, concerne les fonctions et les représentations liées aux capacités de

structuration et de gestion des relations des agents entre-eux.

A partir de ces facettes, on distingue trois architectures :

- Agent autonome : il possède des capacités d’action et de perception sur son

environnement. Cette architecture englobe les fonctions exprimant A et E.

- Agent inter agissant : il possède des capacités d’interaction avec les autres agents

du système. Il possèdera les descriptions des autres agents et sera capable de les

influencer. Cette architecture est constituée des fonctions exprimant les facettes A, I

et E.

- Agent social : il intervient dans les mécanismes de coordination lors du passage au

niveau supérieur (de l’inter agissant au social), il possède les capacités de gestion des

relations avec les autres agents. Cette architecture est constituée par les fonctions

correspondantes aux quatre facettes.

En résumé, « l’architecture désigne la manière dont les ressources de l’agent sont organisées.

Elle retranscrit les interactions entre les différents composants qui traduisent le

Page 61: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

58

fonctionnement de celui-ci. L’architecture dépend fortement du type de l’agent et de la nature

de l’application. Les différents modèles d’architecture découpent l’agent en un ensemble de

modules, un module par unité fonctionnelle. On trouve des modules qui représentent des

actions cognitives, d’autres modules servent pour la représentation des connaissances de

l’agent et d’autres renferment les capacités de celui-ci ». (Melliti, 2004)

Cet auteur donne l’exemple suivant : pour les agents réactifs, on peut définir un modèle

générique d’architecture qui contient trois modules : un module pour la perception, un module

qui retranscrit les compétences de l’agent (qui associe à chaque stimuli une action) et enfin un

module actions qui exécute les décisions de l’agent.

2.2. Classification et caractéristiques des agents intelligents dans le commerce et l’industrie

Dans la littérature, il existe d’autres typologies d’agents intelligents, nous pouvons citer celle

de Caglayan et Harrison (1998). Ces auteurs ont parlé des agents intelligents dans le monde

commercial et industriel. Pour eux, les agents peuvent être classifiés du point de vue de

l’utilisateur final.

De ce fait, ces auteurs ont distingué trois types d’agents :

- Les agents bureautiques

- Les agents Internet

- Les agents Intranet

Les agents bureautiques ou d’interface sont groupés en trois agents :

- Les agents système : sont des agents d’interface qui aident dans l’utilisation du

système d’exploitation.

- Les agents d’application : sont des agents d’interface fournissant une aide à

l’utilisateur pour se servir d’une application particulière.

- Les agents de suite logicielle : sont des agents d’interface fournissant une aide à

l’utilisateur pour faciliter son travail avec des applications corrélées.

Les agents Internet sont classifiés en sept agents :

- Les agents de recherche du Web : sont des agents Internet qui fournissent des

services de recherche dans le Web à un utilisateur.

Page 62: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

59

- Les agents serveurs du Web : sont des agents Internet résidant sur un site Web

spécifique pour fournir des services.

- Les agents de filtrage d’information : sont des agents Internet qui filtrent des

informations selon des critères spécifiés par l’utilisateur.

- Les agents de recherche documentaire : sont des agents Internet qui répondent par

un ensemble personnalisé d’information correspondant à la demande de l’utilisateur.

- Les agents de notification : sont des agents Internet indiquant à un utilisateur des

évènements qui pourraient l’intéresser.

- Les agents de service : sont des agents Internet fournissant des services spécialisés à

des utilisateurs.

- Les agents mobiles : sont des agents Internet se déplaçant d’un lieu à un autre afin

d’exécuter les tâches spécifiques d’un utilisateur.

Les agents Intranet sont groupés sous quatre types :

- Les agents de personnalisation coopérative : sont des agents Intranet permettant

l’automatisation du workflow24 à l’intérieur d’une entreprise.

- Les agents d’automatisation : sont des agents Intranet automatisant les tâches d’une

entreprise.

- Les agents de base de données : sont des agents Intranet fournissant des services

agent à l’utilisateur de bases de données.

- Les agents courriers de ressources : sont des agents Intranet réalisant l’allocation des

ressources dans les architectures client/serveur.

2.3. Classification et caractéristiques des agents intelligents dans le Web

Les chercheurs et les praticiens utilisent la technologie des agents pour développer une vie

longue pour les agents de collecte des données qui sont intelligemment sélectionnés pour la

24 Workflow : « Succession d’activités à l’intérieur d’une organisation, s’enchaînant afin de produire un résultat final. Les applications de travail coopératif permettant de définir différents workflows en fonction de l’organisation et des outils mis en place. A chaque étape, une personne ou un groupe est responsable de la réalisation d’une tâche donnée ». Edith Nuss, Le cyber Marketing, mode d’emploi, Ed. d’Organisation, 2000, p.360.

Page 63: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

60

recherche : l’interprétation, la catégorisation, le stockage et le traitement d’un grand volume

d’informations sur le Web et dans le domaine du e-commerce.

La littérature couvre trois aires (Kauffman, et al. 2000) :

- Les agents de transactions dans Internet (Agents Internet)

- Les agents dans la robotique (Agents Robots)

- Les bases de données à durée de vie longue.

2.3.1. Caractéristiques de ces trois agents

• Agents Internet

Caractéristiques des agents de transactions (à durée de vie courte)

Caractéristiques des agents de collecte des données (à durée de vie longue)

Les agents de transaction sont des agents à durée de vie courte. Ils font la course en quelques secondes. Ils conduisent la transaction dans un seul sens. Exemple : Les agents qui cherchent le meilleur prix pour une requête auprès des différents vendeurs ou agents qui prennent les décisions d’achats pour un acheteur.

Les agents de collecte des données sont des agents à durée de vie longue. Ils font la course qui dure des heures et même des jours pour collecter de grandes quantités de données pour la recherche et ou des propositions de prises de décisions. Exemple : Ils sont utilisés dans le but de rechercher un marché en identifiant des modèles d’achat pour un produit spécifique ou dans le but d’une recherche scientifique en testant les théories et les hypothèses spécifiques.

Jennings and Wooldridge (1998) définissent trois caractéristiques : Dynamique, flexible : Ils sont capables de répondre aux changements environnementaux à temps. Pro-active : Ils sont capables d’éliminer l’opportunisme, ils ont un comportement orienté vers l’objectif et dans l’initiative des actions appropriées. Social : Ils sont capables d’interagir avec les humains et les autres agents.

Tableau 7. Les caractéristiques des agents Internet (Kauffman, et al. 2000)

Page 64: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

61

• Agents robots

- Le développement des agents a été initialement fait dans la recherche robotique. Les

agents logiciels circulent à travers des robots autonomes et leur permettent

d’améliorer les tâches simples. Exemple : l’assemblement des tâches sur lignes

(Grouver et al., 1986)

- Les agents robots suivent des processus semblables qu’on peut trouver dans les

agents Internet.

- Ils sont caractérisés :

- Tout en dépendant de l’application des agents Internet, les agents robots sont

caractérisés par un degré spécifié de flexibilité, pro-activité et d’une interaction

sociale définis par Wooldridge et Jennings (1998)

- Les agents robots ont un degré d’intelligence incorporé dans leurs logiciels.

Cette intelligence est utilisée pour naviguer à travers l’environnement (Lewis et

al. 1996).

- Les robots incorporent une forme de procédures de récupération (Lewis et al.

1996).

- Les robots sont des architectures de programmation complexes. Ils diffèrent

des agents Internet sur différents points :

Agents Robots Agents Internet

- Le dépannage dans ce type d’agents auprès d’une terminaison anormale peut être accompli par une simple remise en marche de l’état initial pré-spécifié. (Lewis et al. 1996 ; Pardo-Castellote et al., 1995) - Les agents robots n’interagissent pas avec l’utilisateur mais ils se concentrent sur une tâche clairement spécifiée et routinière Exemple : sondage d’une ligne de machines. (Lewis et al. 1996 ; Pardo-Castellote et al., 1995).

- Le dépannage dans le cas des agents Internet exige un contexte de sensibilité. Il varie en tenant compte du travail amélioré antérieurement. - Les agents à durée de vie longue exigent un niveau de persistance ce qui implique qu’ils ne font pas une remise en marche simple mais qu’ils remettent l’état de l’agent avant la terminaison anormale exigeant une revue antérieure des données collectées. - En revanche, les agents de collecte des données exigent l’interaction significative avec l’utilisateur et doit s’adapter avec leur comportement.

Page 65: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

62

La tâche de collecte

des données

«Intelligence» «Validation» «Concurrency»

«Interactivity» «Monitoring» «Recovery»

Agent Sophistiqué

- La conception des agents robots se rapporte à l’amélioration d’une tâche. (Pardo-Castellote et al., 1995; Coste-Maniere et al., 1996) - La littérature des robots sur la conception des agents se concentre sur la programmation des tâches individuelles et la manière dont ces tâches interagissent avec les robots hardware.

- Les agents Internet sont centrés sur les données (data-centric); ils doivent acquérir, interpréter et transférer les données en modifiant leur comportement basé sur les données acquises. Ils n’améliorent pas simplement une tâche répétitive.

Tableau 8. La différence entre les agents robots et les agents Internet (Kauffman, et al. 2000)

• Bases de données à durée de vie longue

Les concepteurs des bases de données sont concernés par le ressaisissement des

transactions concurrentes à durée de vie longue (Bernstein et al., 1987). Les utilisateurs des

bases de données multiples peuvent accéder à une même base de donnée en même temps,

chaque utilisation sépare les transactions à durée de vie longue. Ceci est fréquemment

rencontré dans les bases de données qui fournissent une grande échelle d’ingénierie et les

applications de conception.

2.3.2. Six caractéristiques d’un agent sophistiqué

Figure 10. Les six caractéristiques d’un agent (Kauffman, et al. 2000)

La tâche de collecte des données est déterminée par l’importance de son application et décrit

le rôle de l’agent en lui-même. Ceci se traduit par les besoins et ou les capacités d’un agent

spécifique.

Page 66: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

63

L’importance de la tâche de collecte de données doit déterminer du point de vue conceptuel la

sophistication d’un agent.

• Intelligence

C’est la capacité de l’agent à répondre aux requêtes, à prendre les décisions, et à tirer parti de

ses expériences ; capacités normalement associées à l’intelligence humaine. (Kauffman et al.,

2000)

Les agents intelligents utilisent des règles et des niveaux de règles hiérarchiques pour

interpréter les données et déterminer la façon de changer le comportement en s’adaptant à

l’environnement.

Jennings and Wooldridge (1998) montrent que les agents intelligents agissent à la place des

êtres humains experts, les agents intelligents sont pro-actives. Mais, il faut s’assurer que les

règles utilisées par l’agent pour interpréter les données sont correctes et en adéquation avec

les connaissances des experts avec des limites d’erreur tolérables.

Il faut noter que les AI n’ont pas le même degré d’intelligence que les experts humains. Ils ne

souffrent pas des limitations traditionnelles comme la fatigue, la surcharge cognitive ou les

biais qui peuvent affecter les processus de recherches de décision traditionnelles.

Le concept de l’intelligence dans le domaine de logiciels de l’informatique a lancé un débat

autre que les logiciels adoptés par l’intelligence artificielle.

Searle (1990) distingue deux types d’intelligence artificielle :

- Intelligence Artificielle forte indique que la machine peut actuellement « penser »

comme les humains en raison de l’incorporation des programmes informatiques de

l’intelligence artificielle. C’est le cas des programmes qui ont l’initiative d’agir, qui

ont des croyances qui changent et ont des motivations.

- Intelligence Artificielle faible se produit quand les ordinateurs implémentent des

séries de règles pour imiter l’action humaine.

Searle oppose le fait que les machines manquent d’intentionnalité et par conséquent qu’un

programme ne peut suivre des instructions pour recevoir des symboles à l’entrée et générer

des symboles pour la sortie. Ces programmes n’ont aucune compréhension innée sur ce qu’ils

font.

Page 67: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

64

Il pense que les partisans de l’IA qui essayent d’incorporer plus de qualités humaines dans les

machines doivent se justifier rationnellement.

En réponse à Searle, d’autres auteurs (Dennett, 1991) argumentent que tout problème a un

résultat final. Si le programme informatique peut imiter la pensée et l’action humaines sans

distinction, ce programme fait partie de l’intelligence artificielle forte.

En se basant sur les discours philosophiques de Searle (1990) et de Dennett (1991), il existe

différents niveaux d’intelligence artificielle qui peuvent être incorporés dans la conception de

l’agent. Ces niveaux sont regroupés sous trois catégories.

Premièrement, les agents sans intelligence sont nommés agents simples ou agents tout court.

Ils cherchent des données spécifiées auprès d’un site sans faire d’interprétations.

Deuxièmement, les agents avec de simples règles et qui suivent les entrées des utilisateurs ou

des experts. Il s’agit des agents experts. Ces derniers utilisent l’intelligence artificielle faible

dans laquelle ils suivent des règles qui sont toujours placées auprès des répertoires pour imiter

les actions de l’utilisateur normales ou nominales.

Troisièmement, les agents qui utilisent l’intelligence artificielle forte pour prendre l’initiative

d’action, pour avoir des croyances changeantes et pour avoir des motivations.

Nous nous positionnons du côté de l’intelligence artificielle forte. Du point de vue

commercial, il est impossible actuellement de développer des agents Internet qui font preuve

de l’intelligence artificielle forte.

Actuellement, les agents Internet disponibles dans le commerce qui sont catégorisés en tant

qu’agents intelligents sont en réalité des agents simples ou experts. Ils sont des agents basés

sur des règles utilisant l’intelligence artificielle faible pour imiter le comportement humain.

Pour cerner la différence entre l’intelligence artificielle traditionnelle et les systèmes

intelligents, nous définissons le construit d’intelligence dans notre recherche comme étant

l’habileté de l’agent à utiliser des règles pour imiter les réponses humaines.

Les développeurs de cette technologie ont besoin de savoir si le comportement humain mérite

d’être imité.

Les bases de connaissances qui incorporent des règles syntactiques peuvent être utilisées, de

ce fait elles nous conduisent à un comportement spécifique à l’agent basé sur les besoins du

chercheur.

Page 68: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

65

L’intelligence et le comportement de l’agent doivent être pris en considération quand on traite

le développement d’un agent.

L’intelligence est utilisée en particulier quand il s’agit d’une analyse lexique. Ceci implique

une vision du texte en forme libre afin d’identifier les mêmes caractéristiques d’un item

considéré comme étant expert auprès d’une description verbale (Plaunt et Norgard, 1998).

• Validation

La validation est la capacité de l’agent à assurer des données proprement identifiées et à

suivre les règles spécifiques à la tâche de recherche. (Kauffman et al., 2000)

La validation comprend aussi le choix large entre les caractéristiques de la qualité des

données (Wand et Wang, 1996) appliqué à la tâche. Exemple de choix propre et de sélection

de critères : âge, niveau d’agrégation, unités (US dollars ou British pounds)…

Contrairement aux agents valides qui améliorent la tâche, les agents non valides recherchent

simplement des données spécifiées.

La validation peut déterminer dans quelle mesure l’agent est proactif.

Par exemple, si certaines procédures doivent être suivies pour que les données soient valides,

l’agent peut prendre une action appropriée même si ces règles sont détournées.

L’utilisation d’une base de donnée, une partie de la tâche validée peut être déléguée au

système de gestion de bases de données (Database Management System). En revanche, si la

base de données rejette une donnée invalide, l’agent a besoin d’être informé ou des

précautions spéciales méritent d’être prises dans l’analyse de la collecte des données.

En identifiant les données invalides, les agents valides peuvent traiter des données beaucoup

plus efficacement que les agents non-valides.

• Simultanéité

Les agents simultanés sont ceux qui accomplissent différentes tâches en même temps. En

revanche, les agents à processus unique sont des agents qui opèrent d’une façon séquentielle

et peuvent mener à bout une seule tâche à la fois. Un système qui peut assurer plus d’une

seule tâche à la fois peut ajouter l’efficacité à un programme en profitant de l’avantage des

cycles de l’unité de traitement central (« Central Processing Unit). D’autres programmes sont

conçus pour des réponses auprès des serveurs Web à distance. (Kauffman et al., 2000)

Page 69: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

66

La simultanéité est toujours implémentée à travers un système multi-filetage (« multi-

threading »)

Les agents qui font le filetage ont un fil de contrôle central qui crée des processus permettant

à chacun de courir rapidement (agents threads)

Les agents de filetage récupèrent l’information auprès des sites Web. D’autres peuvent traiter

les données qui ont été déjà récupérées.

La simultanéité peut réduire le temps mis pour la collecte des données et produire de

l’efficacité dans la collecte des données.

Pour les tâches simples, les agents à processus unique sont adaptables grâce à la gestion des

processus multiples, et en particulier les agents de transaction typiques.

Pour des efforts de collecte des données ou pour la simultanéité de transaction des

informations entre les multiples sites, la simultanéité aura pour résultat des agents qui

recherchent les données plus rapidement que les agents à processus unique. La simultanéité

est spécialement importante pour des agents qui ont besoin de contrôler plus qu’un site Web

en même temps.

L’agent à processus unique peut contrôler uniquement un site Web à la fois.

La mobilité est un élément de la capacité de l’agent pour améliorer la simultanéité. Les agents

stationnaires avancent dans un seul ordinateur. Les données sont collectées auprès des sites à

distance toujours à travers le protocole TCP/IP mais le traitement des données se génère sur

une machine locale.

Les agents mobiles sont créés par un agent de contrôle central, mais ils demandent du temps

pour réaliser des processus simultanément à la fois sur des sites locaux et à distance.

Il n’y a pas une règle standard pour le développement des agents mobiles.

• Ressaisissement

Il s’agit de la capacité de l’agent à supporter les situations qui interrompent son activité de

collecte de données, par exemple, lorsque des erreurs se produisent avec les connexions de

réseaux, avec les serveurs du Web à distance ou avec les systèmes de gestion de base de

données qui servent les agents intelligents. (Kauffman et al., 2000)

La manipulation de l’agent est relativement nouvelle dans la littérature des systèmes

d’information.

Page 70: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

67

Klein et Dellarocas (1999) décrivent les interactions multi-agents quand les agents sont

difficiles à maintenir, à comprendre et à réutiliser car le comportement normatif simple des

agents devient obscur !!

Les agents de ressaisissement peuvent réparer toute interruption de collecte des données. Cet

agent montre de la persistance. L’agent qui ne fait pas de ressaisissement échouera dans son

travail avant la collecte des données antérieures.

L’agent semi-réparateur peut réviser les données collectées pour déterminer un point de

départ approprié pour la continuité de collecte des données.

• Surveillance

Les agents de veille traquent les événements. Ces agents font accès aux données d’une façon

périodique auprès du site Web apparent. (Kauffman et al., 2000)

La collecte des données est infaisable par les méthodes traditionnelles qui forcent les

individus à accéder au site Web manuellement, mais elle est simple par l’utilisation des agents

de veille.

Les agents de veille sont regroupés en deux catégories :

- Les Agents de veille continue sont préposés à faire la course continue durant le

processus de veille.

- Les Agents de veille réguliers sont préposés à courir périodiquement et ils utilisent

des logiciels de programmation pour courir à temps spécifique durant chaque heure,

chaque jour et dans d’autres périodes de temps spécifiées.

• Interactivité

L’interactivité signifie dans quelle mesure l’agent est capable de modifier son comportement

basé sur les données collectées :

- Les agents non interactifs recherchent simplement des données pré-définies se

trouvant dans des sites Web pré-déterminés.

- Les agents interactifs sont flexibles, dynamiques et adaptables et ne collectent pas

uniquement les données du site Web mais accomplissent les actions basées sur les

données collectées (Jennings et Wooldrige, 1998). Les agents interactifs peuvent être

utilisés pour fournir des mots de passe et des noms d’utilisateur, exécuter des liens

Page 71: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

68

avec d’autres pages, ou entrer des données dans les champs dans le but d’obtenir des

données désirées.

La différence entre interactivité et intelligence est que les agents intelligents prennent des

décisions en se basant sur des données qui sont collectées et sur l’interaction avec l’expert ou

l’utilisateur que les agents veulent simuler. Alors que les agents interactifs interviennent dans

le stade des procédures pré-déterminées en se basant sur les données collectées. (Kauffman et

al., 2000)

Donnons plus de détail sur la notion d’interactivité qui semble une propriété fondamentale

aux agents d’aide à la décision (Spiekermann et Parashiv, 2002).

L’interactivité peut être définie comme « a condition of communication in which

simultaneous and continuous exchange occur(s), and these exchanges carry a social binding

force » (Rafaeli et Sudweeks, 1997). L’interactivité reflète donc la qualité d’une

communication bidirectionnelle entre deux parties et peut être analysée à partir de la durée

des réponses et de leur contingence (Alba et al., 1997)

Concernant Internet, Hoffman et Novak (1996) distinguent deux formes d’interactivité :

- L’interactivité personnelle : se réfère à la communication entre individus via

Internet

- L’interactivité machine : fait référence à la capacité d’une personne à accéder à des

bases de données en ligne. Cette deuxième forme concerne directement les agents

d’aide à la décision.

Nous avons présenté dans cette section trois classifications25 des agents intelligents. Pour

mieux comprendre le rôle des agents intelligents dans la vie « réelle », nous consacrons une

sous-section pour montrer le rôle des agents médiateurs dans le e-commerce.

3. Commerce électronique : un cas d’application des agents médiateurs

Les agents software sont des programmes à qui on peut déléguer une tâche. Ils sont qualifiés

pour être personnalisés, en course continue et semi autonomes. Ces qualités permettent à

l’agent d’être utilisé pour une large variété d’informations. (Maes, 1994)

25 1ère classification proposée par Müller, 1997. 2ème classification proposée par Caglayan et Harrison, 1998. 3ème classification proposée par Kauffman et al., 2000.

Page 72: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

69

L’application des technologies agents peut toucher à la sécurité, la confiance, la réputation, le

droit, les mécanismes de paiement, la publicité, les ontologies, les catalogues sur lignes, les

intermédiaires, les expériences de shopping multimédia, le management back-office.

Les agents software jouent un rôle croissant dans le commerce électronique en tant que

médiateurs.(Bailey et Bakos, 1997).

Guttman, Moukas et Maes (1998) ont exploré le rôle de ces agents, leurs technologies, et

comment ils peuvent être reliés au commerce électronique dans ses trois principales formes :

B to B, B to C et C to C.

Ces auteurs ont présenté un modèle dans le contexte du commerce électronique qui est inspiré

des recherches faites sur le comportement d’achat du consommateur en marketing

traditionnel.

Le modèle de comportement d’achat des consommateurs (Consumer Buying Behavior) est un

outil puissant pour nous aider à comprendre le rôle des agents en tant que médiateur dans le

commerce électronique. Autrement dit les rôles des agents dans un processus d’achat sur

l’Internet. Le processus d’achat en ligne (Guttman et al., 1998) est composé de six étapes :

Figure 11. Les six étapes du processus d’achat en ligne (Guttman et al., 1998)

Ces auteurs se sont inspirés des modèles classiques proposés dans la littérature marketing

(Nicosia, 1966 ; Howard et Sheth, 1969 ; Engel et al., 1993 ; Bettman, 1979) pour décrire les

étapes d’un processus sur l’Internet.

Selon ce modèle les six étapes26 sont les suivantes :

- Identification d’un besoin :

Le consommateur est stimulé à travers l’information sur le produit. C’est le stade nommé par

la reconnaissance d’un problème (Engel et Blackwell, 1982)

L’utilisation des agents électroniques dans cette étape est adaptée pour les achats répétitifs

(par exemple, un approvisionnement) ou les achats prévisibles (par exemple, une habitude),

26 Les étapes représentent une approximation et une simplification de comportements complexes et ne sont pas linéaires ou itératives (Guttman & al., 1998). Par exemple, le consommateur peut choisir le vendeur avant la marque de produit ou choisir le vendeur en fonction du résultat du processus de négociation.

Identification du Besoin

Service après-vente et

évaluation Achat et livraison

Négociation Recherche du vendeur

Recherche du produit

Page 73: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

70

puisque dans ces deux cas les agents peuvent analyser des données historiques pour

déterminer le moment précis où leur intervention est souhaitable (Maes et al., 1999)

- Recherche du produit :

Ce stade comprend la collecte de l’information pour aider à déterminer ce qu’on vend et à

identifier des alternatives du produit basées sur les critères attribués au consommateur. Ce

stade comprend une série de considérations des produits.

La recherche d’informations a pour but de familiariser le consommateur avec les différentes

marques disponibles et avec leurs caractéristiques.

- Recherche du vendeur :

Ce stade combine une série de considérations auprès de l’étape précédente avec l’information

spécifique aux marchands.

Le modèle proposé par Engel et Blackwell recoupe ces deux stades d’une façon orthogonale

au niveau de la recherche de l’information et de l’évaluation des alternatives. Ce stade

cherche à savoir à qui vendre.

- Négociation :

Comment peut-on déterminer les termes de la transaction ? Elle varie dans le temps et dépend

de la complexité du marché. Dans les marchés de détail traditionnels, les prix et les autres

aspects de transaction sont fixés par la négociation.

Dans d’autres marchés (automobiles, marchés locaux…), la négociation de prix et des autres

aspects sont intégrés au produit et au courtage entre les marchands.

Les modèles de comportement d’achat des consommateurs traditionnels n’ont pas identifié ce

stade explicitement. Ce stade de négociation est comparable au stade de décision ou de choix

de décision trouvés dans d’autres modèles.

- Achat et la livraison :

Ce stade signale la terminaison du stade de la négociation. Dans d’autres cas, les options de

paiement sont valables (cash seulement) et les options de livraison peuvent influer sur le

produit et le courtage entre les marchands.

Page 74: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

71

- Evaluation après-achat :

Le stade d’après-vente implique le service au produit, le service au consommateur et

l’évaluation de la satisfaction pour la décision et l’expérience d’achat. La nature de ce stade

dépend du produit vendu.

La littérature des agents intelligents a toujours posé le problème de typologie. C’est pourquoi

dans chaque sous-partie de cette section on voit une classification des agents différente l’une

de l’autre.

Guttman, Moukas et Maes (1998) ont proposé une taxinomie qui utilise comme critère de

classification l’étape de processus d’achat sur laquelle les agents interviennent. Les trois

principaux rôles que ces entités virtuels pourraient assurer auprès d’un consommateur dans le

cadre d’un processus d’achat sont la recommandation de produits, la comparaison des offres

de différents vendeurs et la détermination des termes d’une transaction. Ces trois fonctions

sont remplies respectivement par des agents de recommandation, des agents de recherche et

des agents de négociation. (Paraschiv, 2004)

Ces agents peuvent jouer un double rôle d’une transaction. Ils se mettent à la place d’un

vendeur ou d’un négociateur. L’agent négociateur propose la liste des vendeurs potentiels. Il

exige un tarif sur les sites consultés, il laisse une date limite de réponse à ses requêtes. Pour

gérer les réponses envoyées, il trie par ordre croissant ces réponses pour établir un lien pour le

demandeur. L’agent vendeur apprend à connaître le client en examinant ses achats en lui

posant des questions complémentaires. Cet agent va avoir des connaissances sur son client et

sur d’autres clients. Ensuite, il commence à comparer les profils des clients entre eux. Il

analyse les achats des clients les plus proches. Il sélectionne les articles les plus achetés par

cette catégorie de clientèle.

Cette technologie est encore émergente, ses applications sont encore très verticales et

relativement peu nombreuses. Les perspectives de croissance justifient de suivre

attentivement cette nouvelle technologie dont l’étendue dépasse le simple domaine du data

mining.

Suite à cette grille de lecture sur la technologie des agents intelligents, nous proposons un

premier modèle théorique et nous commençons à explorer le terrain par le biais des entretiens

semi-directifs, afin de comprendre la place de cette technologie dans le processus de la veille

startégique.

Page 75: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

72

Section 2 : Proposition du premier modèle théorique et Phase d’exploration du terrain

Dans cette section, suite à la synthèse des classifications et caractéristiques des agents

intelligents, nous proposons d’abord un premier modèle théorique afin de concevoir les liens

entre agents et les interactions entre les agents et l’Humain ou utilisateur. La phase de

faisabilité de cette recherche sur le terrain a été l’étape la plus délicate et la plus importante.

En deuxième lieu, une étude qualitative a été mise en place pour répondre à cette exigence.

1. Proposition du premier modèle théorique

Caglayan et Harrison ont simplifié la structure d’agent indépendamment des problèmes de

définitions de ce dernier. Cette structure se présente, comme suit, sous trois niveaux :

Figure 12. Modèle d’un agent (Caglayan et Harrison, 1997)

Agent

Traitement des tâches

Connaissance Capacités de communication

Avec les autres

utilisateurs

Avec l’utilisateur

Apprentissage

Connaissances à priori

Tâches

- Retrait d’informations - Filtrage d’informations - Tutorat

- Basé sur le dialogue - Basé sur la mémoire - Réseaux de neurones - Basé sur le cas

Langage de communication inter agents

Interface en langage social

- Spécifiée par le développeur - Spécifiée par l’utilisateur - Spécifiée par le système

Page 76: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

73

Dans leur modèle, Caglayan et Harrison ont simplifié la présentation de la structure d’un

agent en montrant trois niveaux de compétences :

- Le niveau tourné vers la tâche : ce niveau correspond à la capacité des agents à

accomplir un objectif bien précis. Le retrait, le filtrage d’informations, les requêtes à

des bases de données peuvent être des exemples de tâches que les agents peuvent

assurer.

- Le niveau tourné vers la connaissance : c’est l’ensemble de règles de

fonctionnement qu’un agent peut disposer pour définir son architecture et pour

réaliser sa tâche. Ces connaissances peuvent être acquises de différentes manières

(spécifiée par le développeur ou par l’utilisateur, ou dérivée d’autres sources de

connaissances, ou apprise par le système…).

- Le niveau tourné vers la communication : cette capacité de communication permet à

l’agent d’influencer ses interactions avec l’utilisateur ou avec les autres agents.

La communication est l’action d’émission et de réception d’un message.

L’interface est la couche entre l’utilisateur et le système qui facilite la communication entre

agent humain et ordinateur. Elle est considérée comme un canal de communication pour

l’utilisateur. Les théories de l’activité soulignent l’asymétrie existant entre les hommes et les

objets. L’approche anthropocentrique proposée par Lomov (1975, 1977) considère les

relations entre l’homme et la machine comme des relations entre « le sujet de travail » et

« l’outil (moyen) de travail ».

L’homme n’est pas un simple élément du système « homme-technique », mais l’élément

fondamental qui organise le fonctionnement du système.

Pour mieux comprendre la relation Agent humain-Agent logiciel, il faut :

- Déterminer les besoins et problèmes fondamentaux affectant l’interaction homme-

logiciel.

- Mesurer l’efficacité des techniques utilisées par l’humain dans les situations de

résolution des problèmes ( La plupart des études se focalisent sur l’interaction entre

utilisateurs et ressources du WEB).

Page 77: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

74

Afin de conceptualiser la relation homme-logiciel, nous avons recours à deux cadres

théoriques :

- L’interaction Humain-non Humain.

- Les propriétés de la cognition en situation dynamique.

Les interactions entre humains, non-humains et environnements (réel et virtuel) sont

considérées comme des processus qui transforment les données recherchées en informations

traitées et diffusées.

Selon cette perspective, la cognition n’est plus envisagée comme un processus de traitement

de l’information, mais comme engageant des processus de coopération et de collaboration

entre l’humain et son environnement physique et social.

Elle est appréhendée comme un processus distribué et situé dont l’objet est la perception de

l’environnement et dont les dimensions sont physiques, mentales et sociales.

Cette appréhension met l’accent sur deux approches :

- L’approche de la cognition située (Resnick, 1991) qui souligne la dépendance de

l’activité humaine par rapport à la situation. L’unité d’analyse est la relation entre

l’individu et son environnement.

- L’approche de la cognition distribuée qui s’intéresse aux interactions entre les

personnes et les artefacts (phénomène d’origine humaine, artificielle) dans

l’environnement.

Cette dernière approche utilise la notion de tâche pour analyser un système cognitif composé

d’individus et d’outils techniques en interaction.

En se référant à cette base théorique, nous nous proposons de mesurer le concept d’interaction

sur trois niveaux :

- Au premier niveau, nous nous concentrerons sur la mesure de l’interaction Agent

humain-Agent logiciel en recherchant les variables susceptibles de mesurer cette

relation.

- Au second niveau, nous passerons à la mesure de l’interaction Agent logiciel-Agent

logiciel (ce qui forme un système multi-agent).

Page 78: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

75

- Au troisième niveau, lors de la diffusion de l’information exploitée, nous essaierons

de mesurer l’interaction Agent logiciel-Agent humain, pour étudier l’enchaînement

d’actions de communication entre Agent humain et Agent non-humain.

Notons que l’ensemble de ces étapes va suivre le processus de traitement de l’information. En

effet, nous proposerons un modèle qui met en relation ces trois interactions avec l’information

recherchée, exploitée et communiquée. Cette relation nous permettra d’étudier l’impact de

l’utilisation des agents intelligents en mettant en jeu la qualité de l’information obtenue.

Cette démarche est formalisée selon le modèle suivant :

Page 79: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

76

Figure 13. Proposition du premier modèle théorique

Pour mieux comprendre ce modèle, il sera explicité niveau par niveau :

Le 1er niveau : Interaction Homme-Agent intelligent

Cette interaction traduit la relation entre l’utilisateur et l’agent logiciel. Elle comprend des

agents interagissant avec l’utilisateur pour l’aider à réaliser une tâche précise. Le langage de

Qualité de l’information traquée

Qualité de l’information traitée

Qualité de l’information transmise

Nombre de canaux de

communication

Nombre de requêtes

formulées

Contrôle mutuel entre les deux

parties

Besoin en information

Degré de connaissance de

l’information

Type de participants

Enchaînement des messages

Modes de communication

Interaction H-SMA

- Perception du SMA par l’utilisateur - Communication

Interaction Agent-Agent

- Communication - Décision non-humaine - Action

Interaction SMA-H - Communication - Décision humaine - Action

Recherche de l’information

(traque)

Exploitation de l’information (traitement)

Communication de l’information à son

usager (transmission)

Résultats issues de l’échange de l’information

Page 80: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

77

l’utilisateur est transformé en actes du langage KQML (pour faciliter la communication avec

les agents).

A ce niveau, la dimension humaine est spécifiée par :

- la difficulté à modéliser ses connaissances et son comportement ;

- la responsabilité ultime des tâches à exécuter ;

- et la spécificité du protocole de communication requis.

On emprunte à la théorie de l’activité l’analyse qui distingue les motifs, buts et tâches de

l’utilisateur. La présence des agents n’explique pas toutes les transformations dans les

rapports entre l’homme et son environnement. C’est l’existence de motifs, buts et tâches qui

déterminent l’angle sous lequel l’un ou l’autre agent est perçu et qui peut changer le

fonctionnement des systèmes. Le bon fonctionnement du système dépend de l’agent humain.

A ce niveau, les agents assistants interagissent et agissent avec les autres agents. Les agents

assistants apportent une adaptation au profil de l’utilisateur et une capacité à anticiper leurs

besoins (automatiser certaines tâches, rappeler certaines informations utiles…). Ceci peut se

transposer dans le domaine du collectif.

Le 2ème niveau : Interaction du système multi-agents artificiels

Cette interaction va former un système multi-agent. C’est un système distribué composé d’un

ensemble d’agents. Il est conçu et implanté comme un ensemble d’agents interagissant selon

des modes de coopération. Il diffère de celui de l’intelligence artificielle qui simule dans une

certaine mesure les capacités du raisonnement humain.

Ce système possède les avantages traditionnels de la résolution distribuée de problèmes

comme la modularité, la vitesse et la fiabilité. Il hérite également des bénéfices de

l’intelligence artificielle comme le traitement symbolique au niveau des connaissances, la

facilité de maintenance…

Les types d’interaction incluent la coopération (travailler ensemble à la résolution d’un

problème commun) ; la coordination (organiser la résolution d’un problème de telle sorte que

les interactions nuisibles soient évitées et que les interactions bénéfiques soient exploitables)

et la négociation (parvenir à un accord acceptable pour toutes les parties concernées).

La question qui se pose alors est de déterminer comment permettre aux agents de

communiquer.

Page 81: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

78

Le concept de communication permet de relier les agents, de réaliser l’échange des

informations, la formulation des requêtes au sein du système et est le support de l’interaction.

Marc et Picard (1996) définissent la communication comme « un système ouvert

d’interactions qui s’inscrivent dans un contexte ».

Selon Abric (1999), la communication est « l’ensemble des processus par lesquels

s’effectuent les échanges d’informations et de significations entre des personnes dans une

situation sociale donnée »

La notion d’interaction prend place à l’intérieur des agents, via leur faculté de perception, de

communication et d’action.

On peut remarquer qu’il existe un ou plusieurs mécanismes de décisions partagées entre la

dimension humaine et non-humaine, ce mécanisme pouvant être représenté en trois phases :

- la perception ;

- la communication ;

- et l’action.

A ce niveau, les agents autonomes perçoivent et agissent de façon autonome dans un

environnement complexe et dynamique. Ils ne réalisent que peu d’objectifs et de tâches pour

lesquels ils sont conçus.

Abordons à présent le troisième niveau qui concerne l’interaction SMA-Humain.

Le Système Multi-Agent (SMA) peut utiliser ses connaissances sur les autres agents pour

coordonner leurs actions, pour mieux anticiper le futur ou pour atteindre les objectifs d’une

manière collaborative.

Après l’extraction de l’information pertinente des bases de données ou autres, il y aura la re-

direction de cette information vers l’unité de traitement de l’information et par la suite vers

l’unité de communication avec l’utilisateur. Il s’agit d’un processus itératif.

On s’intéresse au contenu et à la dynamique de l’interaction d’une part et aux rôles que

l’agent intelligent en tant qu’outil de la veille peut jouer dans l’efficacité de l’échange

d’informations.

L’interaction passe d’un niveau de recherche d’informations à celui de communication de

l’information traitée.

Page 82: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

79

Ce premier modèle théorique, bien que riche est cependant limité. D’une part, il est riche

parce qu’il a attiré l’attention des chercheurs sur des aspects essentiels. D’autre part, il est

essentiellement technique et manque de bases théoriques. Il a donc été critiqué, ce qui a

ouvert d’autres pistes de recherche.

La première critique à ce modèle est que les phases de traitement de l’information (recherche,

exploitation, communication) peuvent intervenir à chaque type d’interaction homme/agent

intelligent. Ce modèle peut être scindé en deux niveaux :

- Côté tourné vers la demande c’est à dire vers l’exécuteur ou l’utilisateur :

reconnaissance vocale et technique vers moi. Il existe plusieurs niveaux : problème

de sophistication possible de l’intelligence, Web invisible,…

- Côté tourné vers l’exécution : Stockage, traitement, communication, notion

d’interface entre l’homme et la machine. (Ces critiques ont été données par M. Jean

François David27)

Par ailleurs, nous intégrons dans notre démarche, un ensemble de critiques mentionnées par

Mme Véronique Guilloux28 spécialiste dans le domaine des agents intelligents :

- « - Par rapport à la collecte des informations en front office avec un utilisateur (c’est

le cas d’un moteur de recherche) on a effectivement une interface utilisateur ; et en

back office avec un système multi-agent (relation inter-agents électroniques). Il n’y a

pas d’interface avec un utilisateur humain puisque c’est l’étude du processus de

plusieurs agents électroniques qui se coordonnent par rapport à un objectif.

Les systèmes multi-agents ont fait l’objet de travaux au MIT et requièrent une compétence

informatique et des expérimentations peu difficiles à mettre en place.

- Par rapport à la diffusion (via par exemple Intranet), on retrouve bien la relation

utilisateur/agent d’intermédiaire. Ne faut-il pas choisir un des deux niveaux ?

Il est préférable de se centrer sur la diffusion et inclure des variables de résultats (effets sur la

prise de décision) puisque le thème abordé touche de près le knowledge Management.

Le terme « agent intelligent » employé est donc ambigu. Les fameux smart agents sont plus

des prototypes qu’une réalité managériale. Le terme agent doit être défini par rapport à la

réalité managériale. Par exemple sur les Intranets, quels sont les types d’agents ? Il existe des

27 Son adresse site : http://Veronique.Guilloux.free.fr (Maître de Conférences à l’Université Paris XII) 28 Son adresse site : www.davidjf.com (Ex-IBM)

Page 83: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

80

agents d’interface (agent conversation anthropomorphique) qui accompagnent l’utilisateur

pour bien prendre en main l’information diffusée mais qui n’aident pas à la prise de décision.

Il existe aussi des moteurs de recherche d’information sur les Intranets. Existe -t- il des agents

plus sophistiqués ?

En conclusion, notre approche par le premier modèle théorique nous confirme que le thème

est d’actualité mais peut être faut-il recentrer notre réflexion soit sur l’étude des agents en

back office (système multi-agents), soit sur l’étude de la relation agent-utilisateur (On

emploiera d’ailleurs le terme « agents électroniques » plutôt que celui d’« agents

intelligents », car on peut se demander quel est leur niveau d’intelligence ?)

Peut-être faut-il dans un premier temps connaître le panorama des agents utilisés par les

knowledge managers ou les cellules veilles des grandes entreprises. »

Toutes ces remarques consistantes nous ont encouragé à plus creuser davantage à la fois dans

le courant des agents intelligents et dans la littérature abondante des systèmes d’information

avec en perspective la construction d’un second modèle théorique.

2. Source et analyse des données de la phase d’exploration

La phase d’xploration du terrain a deux objectifs. Le premier est de lancer des investigations

sur le contexte de l’utilisation des outils de la veille stratégique en général. Le second objectif

est de chercher le domaine d’application des AI en tant qu’outils de la veille stratégique afin

de montrer leur utilisation dans le processus organisationnel et managérial.

Six entretiens semi-directifs (auprès de responsables et de directeurs) ont été réalisés, ils sont

utiles parce que :

- Le thème de la technologie des agents intelligents est hautement confidentiel et

sensible sur le plan concurrentiel ;

- L’interviewé est réticent à parler à propos des thèmes abordés.

Deux guides d’entretiens ont été construits. Les thèmes abordés dans ces guides dépendent de

l’utilisation ou non des répondants de la technologie des agents intelligents. Le premier guide

est posé à des responsables de la veille stratégique mais qui ne connaissent pas et n’utilisent

pas la technologie des AI et le second est destiné aux connaisseurs et aux utilisateurs de cette

technologie. La durée moyenne de ces entretiens est d’une heure et demi.

Page 84: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

81

- Trois entretiens semi-structurés ont été menés avec trois responsables de la fonction

de la veille stratégique. Ces responsables appartiennent à trois secteurs d’activité

différents (télécommunications, informatique et de service). Ils n’ont jamais utilisé

les agents intelligents mais ils ont utilisé d’autres outils de la veille stratégique. Les

thèmes abordés sont :

- Les fonctions occupées par les répondants

- L’utilisation et l’utilité des outils de le veille stratégique

- Traitement et diffusion des informations

- Rôle de l’utilisation d’Internet sur la proportion de veilleurs

- Choix du réseau de capteurs et leurs rôles

- Les animateurs de la veille

- L’attitude du chef d’entreprise sur les activités de la veille

- L’exploitation des informations représente une phase individuelle ou

collective.

Ces thèmes29 ont été menés sous forme de questions. Ces dernières ont été posées par le

chercheur en s’adaptant au profil et aux réponses des interviewés.

- Trois entretiens avec les directeurs d’entreprises de services, d’édition de logiciels et

de distribution informatique. Les thèmes30 abordés sont :

- Les fonctions occupées par les répondants

- Les caractéristiques techniques et organisationnelles de l’agent intelligent (les

différentes architectures d’agents)

- Le profil des utilisateurs de cette technologie

- Le choix des agents par rapport aux besoins de l’utilisateur.

Avant d’exposer les résultats de cette première phase, nous proposons de résumer le matériel

de la recherche qualitative mis en œuvre :

La source Le matériel exploité

La technique d’analyse L’objectif poursuivi

Six entretiens semi- Retranscription des Guides d’entretiens et Etude du contexte de

29 Voir le premier guide d’entretien dans l’annexe n°2 du chapitre 2. 30 Voir le deuxième guide d’entretien dans l’annexe n°3 du chapitre 2.

Page 85: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

82

structurés répartis comme suit : - 3 entretiens avec des responsables de veille non utilisateurs des AI. - 3 entretiens avec des utilisateurs des AI.

entretiens. grilles d’analyse élaborés. l’utilisation des outils de la veille stratégique. Cette étude a pour objet de rendre la problématique posée faisable sur le terrain.

Tableau 9. La source et l’analyse des données de la phase d’exploration

3. Résultats de la première phase

Lors de la réalisation des trois premiers entretiens le chercheur a mis l’accent sur la fonction

de la veille stratégique étant donné que les répondants ne maîtrisent pas tous les outils de la

veille en général et l’agent intelligent en particulier.

Nous présentons le rôle de la fonction de la veille stratégique dans trois secteurs différents à

partir de l’analyse des trois premiers entretiens effectués. Nous exposons la place relative de

la technologie des agents intelligents dans les organisations à partir des trois autres entretiens.

3.1. Rôle de la fonction de la veille stratégique dans le cadre de cette étude

Lors des deux premiers entretiens31 effectués (Cegetel et IBM), le chercheur s’est confronté à

la réticence d’informations des répondants.

Les deux points essentiels que nous avons pu dégager lors du premier entretien avec le

directeur scientifique de Cegetel :

- Le secteur de télécommunications est relativement stable, l’utilisation des outils de

veille comme les agents intelligents nécessite un secteur plus mouvant comme le

secteur de l’informatique. Ils utilisent les moteurs de recherche pour la recherche de

l’information et Intranet32 pour la diffusion des informations. D’autres moyens

humains (stagiaires, thésards, …) sont utilisés pour la recherche et l’exploitation des

informations pour des raisons de coûts.

- Le profil du chef d’entreprise peut influencer l’importance d’une cellule de veille au

sein d’une organisation. Puisque le chef est financier, ce qui l’intéresse c’est les

31 Voir Annexe n°4_CH2_ Tableau 4. 1. 32 Réseau d’entreprise basé sur l’utilisation des mêmes protocoles qu’Internet.

Page 86: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

83

résultats à la fin de l’année. « C’est une volonté de la direction de constater que la

veille stratégique ne sert pas à améliorer nos résultats ».

Lors du deuxième entretien réalisé avec le responsable de veille concurrentielle d’IBM, nous

pouvons constater que :

- Pour chaque phase du processus de veille, ce veilleur utilise différents outils

convenables à chaque étape. Il a mis l’accent sur trois phases du processus :

- La phase de la collecte des données : il utilise « tous les jours » les revues, les

journaux, les moteurs de recherche, les analyses financières, les bases de

données et les réseaux d’informations. Internet est considéré comme le pire

ennemi des veilleurs.

- La phase d’analyse : « je suis une méthodologie développée par un spécialiste

américain », il n’a pas précisé ses outils dans cette phase.

- La phase de diffusion : il fait du traitement de texte dans des documents

spécialisés sans faire recours à Intranet.

- Le chef de cette entreprise considère que la veille est un effet de mode. « Pour

évaluer une information, on se trompe toujours ». Cela montre que les capacités

humaines peuvent se tromper lors de l’évaluation des informations. Ce directeur nous

a mis en contact direct avec un concepteur des agents intelligents qui avait développé

chez IBM les systèmes automatiques de l’information pendant cinq ans33.

Le troisième entretien34 de cette étude, a été accompli auprès d’un responsable de veille

stratégique de Gaz de France. Nous avons dégagé de cet entretien ces points :

- Lors de la surveillance de son environnement, ce veilleur se base sur la revue de la

presse en faisant la distinction entre trois types d’informations. L’information

blanche qui est librement accessible à tous, l’information grise qui est moins

accessible et à plus forte valeur ajoutée et l’information noire qui est légalement

inaccessible. Il a du mal à distinguer l’information grise écrite et celle non écrite vu

qu’elles s’obtiennent à partir de sources informelles. Il n’est pas intéressé par le

troisième type d’information vu la difficulté d’accessibilité.

33 Ce contact correspond au quatrième entretien effectué dans cette étude. 34 Voir Annexe n°4_CH2_ Tableau 4. 2.

Page 87: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

84

- D’après ce veilleur, l’utilisation des agents intelligents exige un certain degré de

maturité. Les outils de veille cités sont Intranet qui sert comme une base de

connaissance. La masse d’informations n’est pas analysée, elle est uniquement

stockée sous forme de requêtes standardisées pour Gaz de France. Pour la recherche

d’informations, il se base sur des bases de données payantes. Ce responsable m’a

orienté vers EDF, malheureusement ce dernier a refusé de répondre aux questions

posées dans le deuxième guide d’entretien pour des raisons de confidentialité. EDF,

Orange et autres…font partie des entreprises qui ont refusé de participer à ce genre

d’études malgré leur apport qui peut être bénéfique et enrichissant pour cette étude.

- Dans cette entreprise, les réseaux et les capacités humaines dominent l’utilisation

des technologies.

Concernant les trois autres entretiens35 semi-structurés dont les répondants utilisaient la

technologie des agents intelligents, nous synthétisons leurs réponses par rapport au plan de la

sous-section suivante dans le but de montrer cette technologie dans la réalité.

3.2. Présentation des agents intelligents

3.2.1. Définition des agents intelligents

Lors de ces entretiens, le chercheur a confirmé dans son idée que les agents intelligents

existent en réalité. Le problème majeur se situe dans la définition et la typologie de ces

agents. Durant mon quatrième entretien, M. Zanasi a défini ces agents comme « des outils de

traitement automatique de l’information ».

Le cinquième interviewé avec qui nous avons fait l’entretien ne trouve pas de définition à ces

agents. Il pense que c’est un mot générique à l’intérieur duquel se cache la notion de mobilité.

Et pour le cas de la France, on est encore devant les agents de recherche (Copernic). Selon lui,

le premier niveau d’intelligence est celui de l’exécution, autrement dit, l’exécution c’est le

stockage, le traitement, la communication de l’information. L’exécution est tournée vers

d’autres agents, d’autres sites Web ou d’autres agents humains. La capacité d’intelligence

d’un agent signifie sa capacité de traitement, d’adaptation et d’exécution…

35 Voir Annexe n°4_CH2_ Tableau 4. 3. (5ème et 6ème entretien)

Page 88: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

85

Lors du sixième entretien nous n’avons pas parlé de la définition de ces agents, vu que cet

entretien a été téléphonique et nous avons profité de ce contact pour lui transmettre le

questionnaire dans une deuxième étape.

3.2.2. Place des agents intelligents dans le processus de la veille stratégique

Lors de ces trois derniers entretiens, nous n’avons pas évoqué la question sur la place des

agents intelligents et le processus de la veille stratégique mais nous avons déduit que les AI

peuvent intervenir à chaque phase du processus de la veille vu le rôle diversifié de cette

technologie. Il est possible de dire que la veille stratégique est active à partir du moment où

les responsables de cette cellule utilisent des outils capables de collecter, traiter, diffuser

l’information pour qu’elle soit utilisée en tant qu’outil d’aide à la décision. Ici le chercheur est

tombé dans le piège et a su répondre à une partie de ce véritable problème. Est-ce qu’on va

vérifier que l’AI est un outil d’aide à la décision pour assurer un processus de veille active ?

ou est-ce que c’est l’information obtenue par cet AI qui va jouer l’outil d’aide à la décision ?

Dans tous les cas, l’information ne peut pas être définie en tant qu’outil, elle pourra être

considérée comme étant un facteur de succès de la décision prise. Dans cette étude nous nous

sommes limités à l’étude de la qualité du système intelligent et non à la qualité de

l’information. Lors de notre cinquième entretien, le stratégiste nous a dit : « Quelle que soit la

décision prise, l’information circule. Il faut prendre en considération le relativisme dans la

liaison mécanique entre information et décision. On a l’intention de pré-décider avant de

collecter l’information sur des bases d’intelligence stratégique, chose plus subtile et plus

fine,… »

3.2.3. Positionnement du chercheur par rapport aux autres domaines

Historiquement, les agents intelligents sont quasiment tous basés sur les concepts

informatiques des années 80. L’agent intelligent est originaire de plusieurs domaines comme

l’intelligence artificielle, le génie civil et l’Interface Homme Machine (Caglayan et Harrison,

1997). L’originalité de cette étude est que nous associons cette technologie au domaine du

Management des Systèmes d’Information. (Voir Figrure 14)

Dans cette figure, le cercle et la flèche en pointillés ne font pas partie des domaines présentés

dans la figure des auteurs cités (Caglayan et Harrison, 1997). Ils représentent le

positionnement du chercheur par rapport aux agents intelligents. LeMoigne (1996) dit que :

« Bien que l’informatique ait beaucoup contribué à populariser le mot « système » et le

Page 89: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

86

concept du système, il faut convenir,…, que les développeurs de systèmes d’information n’ont

pas développé de méthodes formalisées pour comprendre les systèmes et les inter-relations

entre leurs composants. Les chercheurs en génie logiciel ont été incapables de fournir la

moindre aide aux praticiens en ce qui concerne la définition des systèmes et la mise en œuvre

concomitante de leurs composants fonctionnels ». (p. 25)

Cette citation justifie notre positionnement par rapport aux autres domaines de recherche et

l’intérêt de notre sujet.

Figure 14. Domaines d’influence à l’origine des agents intelligents (Caglayan et Harrison, 1997)

Les principales architectures ne comptent pas suffisamment dans l’interaction Homme-

Machine (Human Computer Interaction). La modélisation de l’utilisateur est une discipline

- Réseaux de neurones - Systèmes à base de connaissances - Systèmes Intentionnels - Raisonnement

Agents Intelligents

- L’Adéquation Technologie-Tâche - L’Acceptation d’une technologie - La diffusion des innovations - La théorie du comportement planifié - La théorie sociale cognitive

- Tutorat intelligent - Expériences interactives - Ingénierie cognitive - Modélisation de l’utilisateur

- Objets - Traitement de l’image et de la parole - Inférence d’évènements de haut-niveau - Surveillance en ligne

Intelligence artificielle

Interface Homme Machine

Management des systèmes

d’Information

Génie logiciel

Page 90: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

87

élaborée par l’intelligence artificielle et il y a eu des recherches réalisées sur ces aspects

comme Computer Supported Cooperative Work (CSCW) et Human Computer Interaction

(HCI) ; ces recherches ont montré l’effet faible des « agents humains » sur la conception des

principales architectures d’agents. Ces applications qui exigent l’habileté des agents humains

sont dans la plupart des cas des softwares agents, par exemple dans les domaines des loisirs,

de l’art, de l’éducation, et des processus de contrôle des agents.

Nous sommes partis d’un premier modèle conceptuel que nous n’avons pas pu valider

empiriquement, du fait de nos difficultés d’accès au terrain. Nous avons fixé comme objectif

de chercher la nature de la relation entre l’utilisateur et l’AI en distinguant trois niveaux

d’analyse à travers les trois étapes du processus informationnel (collecte, traitement et

diffusion des informations).

La collecte de données par le biais des entretiens semi-structurés a été intéressante en terme

de conseils de la part des interviewés, mais elle n’a pas donné lieu à des traitements car les

données collectées sont insuffisantes en terme de nombre d’entretiens réalisés et de précision

pour faire une analyse pertinente et généralisable. C’est la raison pour laquelle que nous avons

élargi la méthode de recherche en passant d’une étude qualitative vers une étude quantitative

(Chapitre 4).

Suite aux problèmes rencontrés à l’accès au terrain et au faible recours à cette technologie,

nous avons limité notre étude au premier niveau. C’est pourquoi, nous nous focalisons sur le

rôle de l’Interaction Homme-Agent Intelligent dans le Management des Systèmes

d’Information.

Page 91: thèse dauphine - nombreux documents chercheurs +

Chapitre 2

88

Conclusion

Dans ce chapitre, notre intérêt a porté sur les classifications et les caractéristiques de la

technologie de traitement automatique de l’information dans le but de montrer leur évolution

et leur intérêt dans le monde des affaires.

La confrontation entre les différents domaines traitant l’Agent Intelligent (AI) a permis de

proposer un premier modèle théorique dont l’objectif est de montrer qu’il y a trois niveaux

d’analyse qui émergent de l’impact de l’utilisation des AI sur le processus informationnel. Le

premier niveau est réservé à l’interaction Agent Humain (AH)/Agent Intelligent (AI) ou

Système Multi-Agent (SMA) c’est lors de lancement de requêtes par l’utilisateur, il pourra

être en interface avec un ou plusieurs AI. Le deuxième niveau est un milieu artificiel car il est

réservé à l’interaction entre les AI lors de la phase de traitement-exploitation des informations

et le troisième niveau est réservé à l’interaction AI/AH lors de la diffusion et la

communication des informations recherchées ou traitées. L’étude qualitative nous a permis

de délimiter notre champ d’intérêt au niveau AH/AI. Les raisons de notre choix sont :

- Notre domaine de recherche étant la gestion des organisations dont l’un des

principaux intérêts est d’étudier le comportement humain.

- Le deuxième niveau relève du domaine de l’informatique et de l’IA

Néanmoins, il aurait été intéressant d’étudier l’impact de la relation H/SMA sur le processus

de la veille stratégique. Vu la confidentialité de l’utilisation de plusieurs agents intelligents et

la spécificité de ces systèmes, nous avons donc préféré le niveau 1 et le niveau 3 serait une

voie future de recherche à travers une étude qualitative longitudinale. (un seul cas en

profondeur).

Pour mieux comprendre leur perception vis-à-vis de ces systèmes, il est utile de traiter la

nature de l’interaction entre l’utilisateur et la machine (ou logiciels). C’est pourquoi nous

consacrerons le troisième chapitre à étudier les dimensions théoriques de l’interaction homme

- machine dans le management des systèmes d’information.

Page 92: thèse dauphine - nombreux documents chercheurs +

CHAPITRE 3

Dimensions théoriques de l’Interaction

Homme-Machine dans le management des

systèmes d’information

“The behavior of system is exactly what is observable,

and to observe a system is exactly to communicate with it”

Milner R., Communication and Concurrency. Prentice. Hall, 1989.

Page 93: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

90

Introduction

Ce chapitre a deux objectifs principaux. Le premier est de rapprocher le domaine de

l’Interaction Homme-Machine du champ du Management des Systèmes d’Information. Ce

rapprochement peut expliquer le rôle de cette interaction dans le MSI à savoir que cette

interaction a montré son intérêt dans d’autres disciplines.

Le deuxième objectif est de présenter les différents modèles de mesure de l’évaluation des SI

en tenant compte de trois niveaux (l’individu, le système et l’organisation). La sélection de

ces modèles facilitera la construction de notre propre modèle.

Section 1 : Rôle de l’Interaction Homme - Machine

L’Interaction Homme-Machine est de nature interdisciplinaire et étudiée par les chercheurs,

les éducateurs, et les praticiens. Nous pouvons citer comme disciplines : la science de

l’informatique, la psychologie, le management des systèmes d’information, la science de

l’information et l’ingénierie des facteurs humains.

Devant le développement rapide et le déploiement de la technologie, les facteurs de

l’interaction homme-machine sont devenus plus critiques et fondamentaux. Les objectifs de

cette interaction supposent de s’assurer de l’utilisabilité36 et de la fonctionnalité du système,

de fournir à l’utilisateur un support d’interaction et améliorer l’expérience de l’utilisateur.

(Carey et al. 2004).

Pour assurer ces objectifs, il faut traiter l’efficience et l’efficacité de l’utilisateur sur le plan

individuel et organisationnel.

Pour enrichir ces objectifs, les directeurs/managers et les concepteurs/développeurs ont besoin

d’être informés sur le jeu entre les utilisateurs, les tâches, les contextes de la tâche, la

technologie de l’information et les environnements dans lesquels les systèmes sont utilisés.

En tant qu’éducateurs, notre rôle est d’équiper la nouvelle génération de managers, de

concepteurs et d’installateurs des systèmes d’information avec des connaissances et des

compétences basées sur l’interaction homme-machine.

36 L’utilisabilité d’un logiciel désigne la possibilité d’utilisation de ce logiciel. Elle se réfère à la maniabilité et à la bonne accessibilité générale d’une application.

Page 94: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

91

1. Définition de l’Interaction Homme-Machine

La définition de l’interaction homme-machine dépend de la situation du contexte et de la

discipline prise en considération.

L’Interaction Homme-Machine (IHM) est « une discipline qui concerne la conception,

l’évaluation et l’implémentation des systèmes informatiques interactifs pour l’utilisation

humaine et l’étude des phénomènes majeurs qui les environnent » (Hewett et al., 1992)

Comme tout champ interdisciplinaire, l’IHM (HCI : Human-Computer Interaction) attire les

chercheurs, les éducateurs, et les praticiens des différents champs. Les organisations, les

groupes d’intérêts spéciaux et les groupes de travail ont comme cible l’IHM ou les études

reliées à l’IHM.

Dans cette recherche, nous nous focalisons sur le rôle de l’interaction homme-agent intelligent

dans le Management des Systèmes d’Information.

Zhang et al. (2002) fournissent comme point de départ une définition pour la compréhension

de l’Interaction Homme-Machine dans le domaine des systèmes d’information.

Dans le champ des systèmes d’information, les principes de cette interaction sont explorés

dans une perspective distinctive : les chercheurs et les éducateurs en Management des

systèmes d’information prennent en considération l’importance managériale et

organisationnelle.

L’analyse de l’Interaction Homme-Machine dans les Systèmes d’Information : « c’est l’étude

scientifique de l’interaction entre les personnes, les ordinateurs et l’environnement de travail.

La connaissance gagnée à travers cette étude est utilisée pour créer les systèmes d’information

et les environnements de travail qui aident à rendre les hommes plus productifs et plus

satisfaits dans leur vie de travail ». (Beard & Peterson, 1988)

En général, les études de l’IHM dans le MSI concernent l’interaction des méthodes humaines

avec l’information, les technologies et les tâches spécialement dans les contextes des affaires,

managérial, organisationnel et culturel.

Le champ de la recherche en IHM a été largement défini et il a eu plus d’attention durant ces

années récentes parce que les technologies ont été développées plus rapidement.

Page 95: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

92

Pour utiliser une technologie avancée, nous avons besoin d’élargir notre compréhension aux

humains, à leur tâche dans les différents contextes et au rôle joué entre les humains, les

technologies de l’information et les environnements/contextes.

Les études d’interaction homme-machine dans le domaine de management des systèmes

d’information ont ciblé les sortes d’interaction des agents humains avec l’information, les

technologies et les tâches et en particulier dans les contextes d’affaires, managérial,

organisationnel et culturel.

Zhang et al. (2002) ont examiné trois revues en Systèmes d’Information (Management

Information Systems Quarterly, Information Systems Research et Journal of Association of

Information Systems) pour chercher le pourcentage de l’ensemble d’articles qui ont évoqué le

sujet d’interaction Homme-Machine. Il est de l’ordre de 33%. Ce résultat montre bien l’intérêt

crucial de ces travaux dans ce domaine.

Nous allons visualiser brièvement (Tableau 10) une chronologie qui soulève l’importance de

l’interaction Homme-Machine :

Auteurs Travaux Bostrom and Heinen, 1977 L’échec des Systèmes d’information peut être

dû au « choix de conception faux » résultant du manque de développement des aspects humains /sociaux du système utilisé.

Gerlach and Kuo, 1991 Les concepteurs de logiciels ont besoin de développer leur objectif à travers les besoins fonctionnels pour introduire les besoins comportementaux des utilisateurs.

Davis 1989 ; Venkatesh & Davis, 1996 ; Venkatesh et al., 2003.

Leurs études sur l’acceptation d’une technologie ont montré l’importance à la fois de l’utilité perçue et de la facilité d’utilisation perçue pour l’utilisateur d’une technologie en SI.

Galletta, 2004 Le problème de l’inadéquation peut être dû à la non-expérience des concepteurs d’une part et le stade de développement des utilisateurs d’autre part. Autrement dit, les concepteurs doivent acquérir une grande expérience pour mieux connaître les besoins des utilisateurs et d’utilisabilité de cette technologie.

Tableau 10. Evolution des recherches dans l’Interaction Homme-Machine

Le développement des systèmes modernes est très différent car la fonction du SI et les

membres de la hiérarchie jouent un rôle interactif dans l’organisation des affaires.

Page 96: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

93

Cinq points méritent d’être soulevés pour montrer l’intérêt managerial de cette recherche :

- Les programmeurs et les analystes passent beaucoup plus de temps en interaction

avec les utilisateurs un par un.

- Les systèmes développés aujourd’hui sont plus complexes, forçant la direction des

SI à dépenser plus de temps aussi en interaction avec les utilisateurs pour déterminer

les besoins informationnels et de prise de décision existants.

- Le développement de certaines approches est basé sur l’effet de retour itératif auprès

des utilisateurs vis à vis de la fonctionnalité et de l’utilisabilité des systèmes.

- L’information est un actif important pour la direction managériale.

- Les SI ont un rôle stratégique et opérationnel dans l’organisation.

2. Caractéristiques de la recherche en MSI/IHM

Quelques études traditionnelles nommées IHM trouvent leurs origines auprès de la science de

l’informatique, la psychologie cognitive, l’ingénierie de l’industrie, l’ergonomie et d’autres

disciplines divers.

L’IHM trouve aussi son origine dans le MSI, la science de l’information, la communication et

les disciplines de la psychologie sociale. Dans notre recherche nous nous limitons à démontrer

les caractéristiques des études en MSI/IHM sur les aspects suivants :

- La cible de la recherche et domaine/champ d’application,

- Le rattachement de disciplines et le support théorique,

- Les méthodologies de recherche.

2.1. Cible de la recherche, domaine et Champ d’application

Cette recherche peut être conduite pour examiner des issues variées aux niveaux individuel,

du groupe, des organisations et des industries. La plupart des études MSI/IHM se sont

améliorées au niveau individuel pour l’analyse, et quelques-unes sont spécifiquement

consacrées aux groupes (GDSS). Pourtant, il existe des études qui sont ciblées sur les

communautés virtuelles.

Page 97: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

94

Figure 15. Les niveaux d’analyse dans l’IHM. (Preece et al., 1994)

Cette figure montre les trois niveaux d’analyse qui impliquent les différents éléments pris en

considération. (Eason, 1991, in Preece et al., 1994).

- Dans cette figure, le peuple peut désigner une ou plusieurs personnes;

- Le travail peut être synonyme des activités définies intégrant les tâches;

- L’environnement se réfère aux aspects physiques, organisationnels et sociaux de

l’environnement ; et

- La technologie peut être un artefact technologique intégrant tout type d’ordinateurs

ou de postes de travail (Eason, 1991)

Ces éléments peuvent être modifiés pour inclure des concepts plus larges afin d’adresser des

sujets modernes dans l’utilisation et le développement de la technologie présente. Par

exemple, les technologies peuvent intégrer les données et les informations, les machines et les

logiciels, les applications, les procédures aussi bien que le personnel d’assistance technique.

Des études en MSI/IHM s’efforcent de trouver un équilibre entre les perspectives d’affaires,

managériale, organisationnelle, sociale, technique/d’ingénierie. (Baskerville et Myers, 2002),

et elles se sont centrées sur les tâches ou problèmes organisationnels.

Des études spécifiques sur le développement avancé de technologies pour l’assistance

managériale ou organisationnelle (Krishnan et al., 2001; Zhang, 1998) sont considérées

pertinentes dans la discipline de MSI parce qu’elles intègrent un support théorique pour la

conception aussi bien que les implications organisationnelles, managériales et théoriques.

1er niveau Personnel Technologie

Environnementgénéral

2ème niveau Environnement

Système technique Travail

Système social

Objectif Organisationnel3ième niveau

Page 98: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

95

D’autres études en MSI/IHM, sont en revanche centrées sur la découverte ou la

compréhension en couvrant les trois niveaux de la figure ci-dessus.

Les technologies sont utilisées comme des exemples pour découvrir les perceptions de

l’utilisateur, les attitudes, le comportement et la performance. (Par exemple des études portent

sur l’acceptation de technologies, l’efficacité de l’ordinateur personnel, et l’usage du SI).

Plutôt que de se centrer sur le simple niveau de performance de la tâche, les études en

MSI/IHM se sont intéressées aux tâches individuelles qui peuvent être liées directement aux

objectifs de l’organisation. L’utilité d’une technologie pour l’accomplissement des tâches

organisationnelles et l’adéquation entre les tâches et la technologie pour assister les tâches

(Goodhue, 1995) joue un rôle important dans ces études (Davis, 2002; Strong, 2002).

La majorité des études en MSI/IHM se focalise, en premier lieu, sur les utilisateurs adultes

dans les contextes des affaires ou organisationnel où se trouvent la performance du travail

individuel et la satisfaction au travail, et les objectifs organisationnels sont des problèmes

primaires pour l’entreprise.

D’autres études s’intéressent à des contextes autres que les affaires et l’organisationnel

(exemple, Venkatesh et Brown, 2001).

Peu d’études prennent en considération les types d’utilisateurs au sens large (comme les

adultes, les enfants, les handicapés physiques et/ou mentaux, et les personnes âgées) pour des

types d’intentions au sens large (comme la distraction, la culture, les librairies, et les

applications de la vie critique dans la médecine, la défense, et la conception des automobiles).

Les séries de divers thèmes identifiés par Carey sur les études IHM/MSI au cours des années

antérieures portent sur : (Beard et Peterson, 1988; Carey, 1988, 1991, 1995, 1997)

- L’Interaction Homme/Machine: les méthodes de communication entre l’utilisateur

et l’ordinateur ;

- Les outils de spécification de l’interface et les problèmes de conception: ils

détaillent les techniques de conception pour l’interface utilisateur – ordinateur ;

- Le SI professionnel ;

- La présentation de l’information: Comment les données sont présentées à

l’utilisateur (graphiques, textes, …) ?

Page 99: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

96

- La documentation système/utilisateur: Les procédures de communication et de

documentation pour assister l’utilisateur dans l’accomplissement des tâches ;

- Les impacts organisationnels

- La formation et l’implication de l’utilisateur final: les méthodes utilisées pour avoir

des utilisateurs impliqués dans les phases de conception du système, son

implémentation et son utilisation

- L’utilisateur final

L’ensemble de ces thèmes a l’intention de fournir une gamme de sujets reliée à l’histoire, le

rattachement des disciplines, les théories, les pratiques, les méthodologies et les techniques, le

développement et les applications de l’interaction entre les humains, les tâches, les

technologies de l’information et les contextes (organisationnel et culturel…).

Les centres d’intérêts intègrent les points suivants:

- Les aspects cognitifs, motivationnels, comportementaux et affectifs de l’interaction

technologie/homme ;

- L’analyse de la tâche de l’utilisateur et la modélisation ;

- Les documents/genres numériques et le comportement de la recherche de

l’information humaine ;

- La conception et l’évaluation de l’interface de l’utilisateur pour le B2B, le B2C, le

e-commerce, les marchés électroniques, la gestion de la chaîne de valeur, les groupes

de collaboration, la négociation et la vente aux enchères, les systèmes de l’entreprise,

Intranets et Extranets ;

- Les approches intégrées et/ou innovatrices, les directives, et les analyses standards,

la conception, et le développement des dispositifs interactifs et les systèmes

- Les interfaces de la conception de l’ordinateur pour l’utilisateur ou le support de la

décision collaborative, intégrant la conception des interfaces de l’ordinateur standard,

aussi bien que la conception des dispositifs des petits écrans mobiles

- Le développement et les applications des visualisations de l’information

multidimensionnelle

- L’utilisation de l’ingénierie métrique et les méthodes d’évaluation de l’interface

utilisateur

Page 100: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

97

- Les études de l’utilisation pour l’évaluation de l’utilisateur final dans le travail

- L’acceptation de la technologie de l’information et la diffusion des perspectives

cognitives, motivationnelles, culturelles et de la conception de l’interface de

l’utilisateur

- L’impact de la technologie interfaces/information sur les attitudes, le comportement,

la performance, la perception et la productivité

- Les problèmes liés à la formation et l’apprentissage des logiciels, intégrant les

aspects de l’apprentissage perceptuel, cognitif, et motivationnel

- Les variables démographiques et la technologie

- Les problèmes de l’enseignement de l’IHM

2.2. Disciplines rattachées et support théorique

Plusieurs disciplines sont rattachées au MSI/IHM : la science de l’informatique, l’ingénierie,

le management, la science en management, la psychologie cognitive, la psychologie sociale,

la psychologie organisationnelle et plus récemment la psychologie du consommateur et le

marketing.

La justification des théories existantes mérite des efforts à répondre aux problèmes. De plus,

ces théories doivent être développées ou avancées pour une étude à la fois empirique et

conceptuelle. A travers les divers thèmes de recherche en MSI/IHM, l’étude des réactions

individuelles pour évaluer une technologie, vue par Compeau et al. (1999), est un sujet

important dans la recherche des systèmes d’information récente.

Plusieurs auteurs ont étudié les différents aspects de ce phénomène auprès d’une variété des

supports théoriques, intégrant :

- La diffusion des innovations (DOI : Diffusion Of Innovations) (exemple, Moore et

Benbasat, 1991),

- Le Modèle de l’acceptation d’une technologie (TAM: Technology Acceptance

Model) (exemple, Davis, 1989, Venkatesh et Davis, 1996),

- La théorie du comportement planifié (TPB: Theory of Planned Behavior) (exemple,

Mathieson 1991; Taylor et Todd, 1995), et

Page 101: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

98

- La théorie sociale cognitive (SCT : Social Cognitive Theory) (exemple, Compeau &

Higgins 1995, 1995; Hill et al. 1986, 1987).

2.3. Méthodologies de recherche

Les études suivent la procédure de développement systèmes/interfaces, puis cherchent à

évaluer ou comparer ces interfaces avec les autres alternatives, ce qui est similaire à ce qui a

été réalisé dans les études traditionnelles en IHM.

D’autres études sont orientées vers les sciences sociales. La figure 16 montre les approches de

recherche ou les stratégies pour les sciences sociales, réalisées au cours des deux dernières

décennies. Cette figure présente les considérations majeures auxquelles doivent faire face les

chercheurs lors de la conduite d’une étude de recherche. Les huit stratégies identifiées sont

classifiées en deux dimensions (McGrath, 1981):

- Du particulier à l’universel, et

- De l’indiscret au discret.

Page 102: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

99

Figure 16. Les stratégies de recherche (Source : McGrath, 1981)

I. Cadres des systèmes naturels II. Réalisation et création des cadres III. Le comportement non dépendant au cadre IV. Non observation du comportement demandé A. Le point de maximum de généralisation supérieur aux acteurs B. Le point maximum de précision de mesure de comportement C. Le point maximum du système caractéristique du contexte

Ces stratégies varient dans leur capacité à atteindre trois objectifs en conflit dans la recherche

comportementale :

- Précision,

- Généralisation, et

- Concrétisation ou faisabilité à la situation réelle (Diesing, 1991).

II

IV

I

I III II

IV

III

Simulations expérimentales

Théorie formelle

Questionnaire

Tâches de décision

Expérimentations en laboratoires

Simulations informatiques

Etudes expérimentales

Etudes de cas

A

C

B

Opérations de recherche indiscrète

Opérations de recherche discrète

Systèmes de comportement particulier

Systèmes de comportement universel

Page 103: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

100

Il est probablement impossible de maximiser plus d’un objectif parmi ces trois dans le temps.

C’est pourquoi une étude particulière devra concevoir la construction d’un échange pour

atteindre un but particulier.

Il est à noter qu’un examen attentif de ces stratégies montre des écarts avec ces classifications.

Cependant, la classification d’études fournit une compréhension globale des caractéristiques

des différentes stratégies.

En utilisant la taxinomie de McGrath, Baecker et al. (1995, p81) a résumé la recherche de

l’IHM et l’évaluation des méthodes en quatre groupes majeurs décrite dans le tableau 11 :

Champ de stratégies Stratégies défensives (Dispositions sous conditions possibles) (Dispositions silencieuses) Etudes sur le terrain Etudes de jugement

Ethnographie et analyse d’interaction Recherche contextuelle

Utilisation des méthodes d’inspection, exemple l’évaluation heuristique

Expérimentation sur le terrain Etude par échantillonnage Test de beta des produits Etude de changement technologique

Questionnaires Interviews

Stratégies expérimentales Stratégies théoriques (Dispositions d’invention pour rechercher les objectifs)

(Pas d’observation de comportement demandé)

Simulations expérimentales Théories formelles Utilisation d’un test Utilisation d’ingénierie

Conception de théorie (les sept phases de Norman) Théorie comportementale

Expérimentations en laboratoires Simulations d’ordinateurs Expériences contrôlées Théorie de traitement de l’information

humaine Tableau 11. La recherche IHM et évaluation des stratégies (Source: Baecker et al. 1995)

Les études en IHM/MSI utilisent les théories formelles ou modèles, les simulations

d’ordinateur, les études par échantillonnage, les expériences contrôlées, l’expérimentation sur

le terrain, et l’étude sur le terrain intégrant les études de cas. L’accent est mis sur la

compréhension simultanée des comportements universels et particuliers par les méthodes

discrètes et indiscrètes.

Ces trois objectifs sont testés: la précision (exemple, les expériences contrôlées), la généralité

(exemple, les théories formelles, et les études par échantillonnage), et l’intérêt au contexte.

Il est à noter que la demande d’atteindre ces trois objectifs est plus élevée dans la discipline

du MSI que dans les autres.

Page 104: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

101

Même quand l’étude de recherche est conduite en utilisant une expérience contrôlée (qui a

tendance à être moins basée sur un contexte et moins généralisable), il est peu probable que la

communauté en MSI accepte, à moins que les problèmes de contexte et de généralité soient

adressés exclusivement à cette étude.

En conclusion, la recherche en MSI/IHM étudie les attitudes humaines, les intentions, et le

comportement dans les dispositions du travail réel avec les technologies de l’information

courantes. Dans le MSI/IHM, la construction d’un système ou l’implémentation est

principalement pour les concepts « résistants ». Il existe toujours des concepts théoriques qui

servent de base, et qui ont des implications théoriques éventuelles.

La recherche en MSI/IHM utilise un raisonnement théorique pour analyser ce qu’on fait, ce

qu’on ne fait pas et pourquoi. Ensuite, elle fournit des suggestions de conceptions meilleures,

ou plus de technologies de l’information efficaces. Enfin, elle fournit des suggestions pour la

pratique organisationnelle.

3. Réalité de l’IHM dans le développement des systèmes

L’Interaction Homme-Machine a créé des méthodes structurées à partir des recherches

académiques et de celle des auteurs industriels. Ces idées sont largement ignorées par les

ingénieurs des logiciels. (Sutcliffe, 2000).

Dans les approches de développement de systèmes, les problèmes et l’intérêt de l’IHM ne

sont pas considérés systématiquement.

Des essais ont été effectués pour lier l’utilisation et les facteurs de l’utilisateur à travers le

cycle de vie du développement des systèmes (Hefley et al., 1995; Mantei et Teorey, 1989).

Les chercheurs ne fournissent pas de méthodologie claire pour l’intégration de l’IHM à partir

des processus de conception et d’analyse du système.

La méthodologie peut nous aider à préparer les étudiants à développer les systèmes

d’informations organisationnelles centrés sur l’humain : ceux qui procurent des gains aux

utilisateurs humains et contribuent au succès des organisations et des affaires.

Ce manque d’intégration est reflété dans quelques manuels de conception et d’analyse des

systèmes, qui contiennent des chapitres sur la phase de conception du cycle de vie du

développement des systèmes, et sur les problèmes de l’interface avec l’utilisateur.

Page 105: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

102

Le tableau suivant montre le sommaire des manuels récents écrits par les académiciens du

MSI en adoptant les programmes du MSI :

Manuels Méthodologie/Approche Les thèmes de l’IHM couverts

Dennis & Wixom, 2003 Le cycle de vie du modèle est composé de 5 phases

Un chapitre : phase de conception sur le design de l’interface de l’utilisateur.

Hoffer et al., 2005 Le cycle de vie du modèle est composé de 5 phases

Deux chapitres : phase de conception sur les formes et les rapports de conception et les dialogues et les interfaces de conception.

Kendall & Kendall, 2005 Le modèle de cycle de vie est composé de 4 phases

Quatre chapitres : phase de conception sur l’input, l’output, l’interface avec les utilisateurs et la procédure d’entrée des données.

Satzinger et al. 2004 Le modèle du cycle de vie est composé de 3 phases (analyse, conception et implémentation)

Un chapitre : phase de conception sur l’interface de l’utilisateur.

Valacich et al., 2004 Le modèle du cycle de vie est composé de 4 phases.

Un chapitre : phase de conception sur l’interface humaine.

Whitten et al., 2004 Le modèle du cycle de vie qui soutient plusieurs objectifs (connaissance, processus, et communication) et plusieurs vues.

L’objectif de communication intègre des problèmes en IHM qui courent à travers le cycle de vie entière.

Tableau 12. Les thèmes de l’IHM couverts dans les manuels de la conception et l’analyse des systèmes.(Zhang et al., 2005)

En comparant ces manuels récents, on constate qu’ils couvrent tous les problèmes de

l’interface de l’utilisateur à une certaine étendue. Ils démontrent que la conception nette des

interfaces de l’utilisateur est importante dans le succès des systèmes d’information.

Le manque d’intérêts de l’IHM dans la conception et l’analyse des systèmes est liée à la

mauvaise perception de l’IHM et de ses rôles dans le développement des systèmes.

Cette mauvaise perception est due au fait que l’IHM est focalisée uniquement sur la

conception de l’interface de l’utilisateur final, du point de vue de la conception de la forme,

de l’assortiment du menu, des couleurs, de la conception des icônes et de l’assortiment de la

visualisation de l’écran.

Page 106: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

103

Cette vue coïncide avec les manuels populaires de la conception et du design des systèmes

présentés dans le tableau ci-dessus.

La conception de la forme, l’assortiment de menu, de couleurs, la conception des icônes et

l’assortiment de la visualisation de l’écran, ont été pris en considération par l’IHM dans le

développement des systèmes d’information. Mais ils sont loin d’être exhaustifs ou les plus

importants.

Les utilisateurs des systèmes d’information sont davantage frustrés par les problèmes qui sont

au-delà du niveau de l’écran d’un ordinateur.

Les problèmes majeurs touchent à l’organisation illogique des données/informations dans un

système, le manque de support de tâche, l’inadéquation entre la nature de la tâche et le

support fourni, le manque de contrôle au sein d’un système, la difficulté dans la navigation

l’incohérence entre les modèles mentaux et les opérations de système.

Ces incompatibilités affectent les réactions de l’utilisateur face à l’acceptation d’un système

d’information, et à son utilisation efficace.

Ces problèmes peuvent s’enraciner dans la négligence des facteurs comportementaux,

affectifs et cognitifs de l’être humain et les dynamiques des interactions humaines avec les

technologies. Ces problèmes peuvent avoir lieu durant le processus de développement de

l’IHM.

Une bonne compréhension des facteurs comportementaux, affectifs, cognitifs de l’être humain

est demandée afin de résoudre ces problèmes. Ces facteurs sont impliqués dans les tâches de

l’utilisateur, les processus de résolution de problème et les contextes de l’interaction.

Il est important de comprendre les besoins en systèmes le plutôt possible. Il est important

aussi que l’interaction technologie/être humain soit comme au début et durant le processus du

cycle de vie du développement des systèmes.

Une autre mauvaise perception est que l’IHM se focalise uniquement sur l’utilisation.

Cependant l’utilisabilité a occupé une partie dominante du champ de l’IHM. Des études

empiriques sur l’acceptation d’une technologie par l’utilisateur ont prouvé que l’utilisabilité

est à la fois un prédicteur important de l’acceptation d’une technologie et de son usage.

(Davis, 1989; Venkatesh et al., 2003). D’autres recherches plus récentes vont au delà de

l’utilisabilité pour explorer d’autres facteurs affectant les interactions humaines avec les

technologies.

Page 107: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

104

Les réactions affectives de l’utilisateur et ses expériences holistiques ont gagné plus

d’attention et sont devenues plus importantes. (Agarwal et Karahanna, 2000; Webster et

Martocchio, 1993; Zhang et al., 2002).

4. Perspectives de la recherche en MSI/IHM

Le champ de l’IHM largement défini est un courant de recherche puissant pour le MSI. Son

futur est brillant car:

1. Le nombre de développeurs d’interface a augmenté,

2. Plus de personnes sont en face de plus de difficultés à utiliser les systèmes (Galletta,

2002),

3. Plus de personnes sont affectées par l’avancement technologique au sein de leurs

organisations, leurs sociétés et leur foyer.

Avec ce futur brillant et une direction de recherche viable, la prochaine question est : quels

sont les thèmes pour la recherche future en MSI/IHM?

Il peut être utile d’encourager la discussion et de découvrir les thèmes intéressants et les

problèmes de recherche. Ces aires sont décrites comme suit :

- La construction des relations et la gestion des construits

- La modélisation de la tâche et l’adéquation organisationnelle

- L’acceptation de l’utilisateur

- L’amélioration des mesures dans l’IHM

- L’importance de l’expérience holistique dans l’interaction des humains avec les

technologies (ce qui implique que tout programme est un système d’explication

globale et qui ne peut être expliqué par ses différents composants)

- L’importance d’un grand champ d’utilisateurs

- Une nouvelle taxinomie du MSI/IHM

4.1. Construction des relations et Gestion des construits

L’articulation dans la recherche en MSI/IHM doit changer de la seule focalisation sur les

individus interagissant avec les ordinateurs, aux individus communiquant entre eux et avec les

organisations par le biais de l’interface de l’ordinateur (Benbasat, 2002).

Page 108: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

105

La clé des variables dépendantes étudiées dans la recherche du MSI/IHM doit inclure la

construction des relations et la gestion des construits plutôt que de consacrer une attention

exclusive à l’efficacité et à l’efficience, dont le rôle est central dans la recherche antérieure.

La construction de relations et la gestion des construits peuvent jouer un rôle important dans

la recherche sur l’IHM associée avec l’architecture de l’interface business-to-consumer

(BtoC).

L’objectif est donc de concevoir des interfaces qui réduisent la distance entre les

consommateurs et les entités avec lesquelles ils interagissent. Exemples: l’âge du e-commerce

comporte les architectures qui : (1) permettent aux consommateurs de mieux essayer les

produits via l’IHM, (2) améliorent la présence sociale entre le consommateur et la firme qui

est représentée par la seule interface de l’ordinateur (la page web), (3) rendent l’utilisation des

recommandations des agents plus faciles à utiliser (exemple, les moteurs de recherche, qui ont

besoin d’évaluer un grand nombre de produits offerts sur Internet) et (4) simulent l’interaction

avec les vendeurs dans un espace physique (l’utilisation des signes graphiques représentant un

utilisateur en espace virtuel (lors d’une discussion virtuelle)�pour assister l’aide) (Benbasat,

2002).

4.2. Modélisation de la tâche et l’adéquation organisationnelle

Une autre optique pour la compréhension des problèmes ouverts par la recherche future et

actuelle en MSI/IHM est celle de l’adéquation technologie-tâche (Task-Technology Fit :TTF),

considérée comme une recherche puissante dans le MSI (Goodhue, 1995; Goodhue et

Thompson, 1995; Dishaw et Strong, 1998, 1999).

A travers la perspective de l’adéquation technologie-tâche (TTF), les variables présentées

dans le triangle central de la figure des niveaux d’analyse dans l’IHM, sont libellées

Technologie, Tâche (plutôt que travail), et différences individuelles (plutôt que Peuple). Les

modèles de l’adéquation technologie-tâche se focalisent sur l’adéquation entre la tâche et la

technologie, c’est à dire sur l’assortiment des technologies aux demandes de la tâche

(Goodhue, 1995). Ils se focalisent sur les différences individuelles, par exemple l’utilisateur

fréquent ou occasionnel, qui touche à l’adéquation. Par exemple, l’interface de l’utilisateur

peut fournir l’adéquation pour une tâche d’affaire, mais uniquement pour les utilisateurs

fréquents.

Page 109: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

106

Beaucoup de recherches en MSI, comportant la recherche en MSI/IHM, se sont intéressées à

la détermination des dimensions de l’adéquation entre la sélection des technologies de

l’information et les besoins des tâches individuelles et organisationnelles, et à la mesure du

degré d’inadéquation avec ces dimensions.

Afin d’avancer dans la recherche en MSI/IHM, nous avons donc besoin de modèles meilleurs

concernant les tâches organisationnelles. Cependant nous pouvons mener des expériences

pour mesurer l’adéquation, puis une construction théorique pour quelques expériences donne

un modèle des tâches organisationnelles utilisées. Par exemple, une étude sur l’adéquation

maintenance-outils de CASE (boîtier qui renferme les pièces internes d’un ordinateur) a

utilisé les tâches de maintenance développées à travers l’analyse du protocole (Dishaw et

Strong, 1998; Vessey, 1986). Par contre, il y a peu de tâches organisationnelles, qui aient bien

développé des modèles d’activités impliquées, ce qui limitent la progression de la recherche.

Le domaine de la recherche future est le développement des dimensions et des mesures pour

l’adéquation organisationnelle.

Dans la recherche en MSI/IHM, le contexte, typiquement une tâche organisationnelle ou un

processus, est une composante importante de la majorité des études.

Pour dater la plupart des études TTF et les études en MSI/IHM ont employé le niveau

d’analyse individuel, bien que quelques recherches soient focalisées sur les groupes et les

systèmes d’assistance d’un groupe (Zigurs et Buckland, 1998).

Comme la recherche en MSI modifie les outils de la productivité individuelle pour les adapter

aux systèmes de l’entreprise, nous avons besoin de développer les dimensions et les mesures

de l’adéquation organisationnelle. Par exemple, les systèmes d’entreprise sont considérés

comme l’intégration de développement et d’interdépendance avec les organisations. Nous

avons besoin de connaître comment et combien de caractéristiques des systèmes d’entreprise

peuvent s’adapter ou fournir une valeur aux organisations.

4.3. Acceptation de l’utilisateur

L’intégration de l’acceptation de l’utilisateur de la technologie de l’information avec le

développement technologique doit être étudiée (Davis, 2002). Il est souhaitable de créer une

estimation discrète qui pourra:

- Gérer l’attention de l’utilisateur et

Page 110: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

107

- Exploiter l’intention de l’utilisateur.

L’acquisition de compétences et l’aide à la décision à travers la visualisation et le contrôle

dynamique sont d’autres directions qui ont besoin de la recherche. De plus, l’assistance des

équipes virtuelles avec l’aide des connaissances devient indispensable dans l’accroissement

de la visualisation et la globalisation des équipes de travail (Davis, 2002).

4.4. Amélioration des mesures dans l’IHM

A cause des problèmes notés dans les méthodologies de recherche (Newsted et al. 1997) et

qui ne sont pas encore surmontés, les mesures de l’IHM ont des méthodes longues à suivre

(Carey, 2002). Le tableau suivant montre les variables de l’IHM identifiées dans le passé :

Indépendantes Dépendantes Utilisateur/analyste Caractéristiques de

l’interface Performance

1. Indirecte A. Aptitude B. Attitude C. Style de décision

1. Contenu 1. Efficacité de la décision A. Exactitude B. Opportunité C. Qualité D. Confidentialité

2. Directe A. Formation B. Expérience C. Implication

2. Forme 2. Satisfaction

3. Présentation 3. Apprentissage Facilité Temps

4. Média 4. Sensibilité du système 5. Rapidité d’utilisation

3. Dispositif de décision A. Tâche B. Niveau de gestion C. Incertitude D. Opportunité E. Structuration F. Contexte

5. Contexte 6. Taux d’erreur

Tableau 13. Les variables de l’IHM (Carey, 2002)

Le problème de mesure est-il relatif aux études de l’IHM face au défi méthodologique ? Si

oui, quel est ce défi? Doit-on réinventer ou doit-on bénéficier des études de la science sociale

sur les méthodologies de recherche?

4.5. Accentuation sur l’expérience holistique de l’interaction des humains avec les technologies

Historiquement, les études en IHM sont lourdement orientées vers l’aspect cognitif de

l’expérience humaine, comme la création de modèles pour l’utilisateur et la tâche,

Page 111: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

108

l’acceptation d’une technologie, l’efficacité d’un ordinateur personnel, l’adéquation

technologie-tâche, l’adéquation cognitive, et d’autres.

De plus, des études ont examiné uniquement les problèmes reliés au travail.

Comme l’être humain est non rationnel (noté par Herbert Simon), nous avons une gamme

complète d’opportunités pour interagir avec les technologies pour différents objectifs dans les

approches non-rationnelles ou celles de la rationalité liée. Une vue holistique de l’IHM doit

inclure les aspects cognitifs, émotionnels et affectifs dans toutes les interactions possibles

entre les êtres humains et les technologies.

Diverses études en MSI/IHM prennent déjà en compte le côté cognitif de l’IHM. Des

exemples intègrent les études sur la vivacité (exemple, Webster & Martocchio, 1992; Agarwal

& Karahanna, 2000), l’expérience coulée (exemple, Trevino & Webster, 1992; Webster, et al.

1993; Ghani, 1995; Hoffman & Novak, 1996; Novak et al. 2002; Finneran & Zhang, 2000),

les besoins sociaux et esthétiques (exemple, Tractinsky et al., 2000), l’émotion (Venkatesh,

2000), et l’équilibre entre l’action et les relations, la cognition et l’affectation (exemple,

Te’eni, 2000).

En fait, avec l’étendue d’interaction avec les technologies dans notre vie quotidienne pour

différentes raisons, nous pouvons examiner de nouveau le sens de la vie.

Nous pouvons reprendre la question de base : de quoi nous avons besoin dans notre vie ?

Nous pouvons revisiter les modèles de Maslow ou autres besoins de bases et ensuite décider

d’utiliser les technologies pour approvisionner, dans la hiérarchie des besoins, les besoins

élevés des êtres humains. Cette approche pourrait ouvrir une nouvelle direction entière

d’opportunités pour la recherche future de l’Interaction Homme-Machine.

4.6. Accentuation d’un grand champ d’utilisateurs

“Pousser la recherche de l’interaction homme-machine pour donner du pouvoir à chaque

citoyen” (Shneiderman, 2000) apparaît un choix logique, cependant cela demande plus

d’attention.

Comme discuté auparavant, les recherches en MSI/IHM donnent un peu plus de place aux

utilisateurs adultes (à la fois débutants et experts) dans les cadres organisationnels.

Les développements technologiques ont poussé cette limite pour enrichir un plus grand champ

d’utilisateurs, comme les personnes appartenant à différents groupes d’âge, les personnes

Page 112: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

109

appartenant à différentes ethnies, cultures ou langage, et les personnes appartenant à des

niveaux d’éducation peu élevées... Les problèmes d’utilité universelle, d’utilisation

universelle, d’acceptation et d’adoption universelle ont été attribués à des dimensions mais

plus d’attention à leurs relations mérite d’être soulevé.

4.7. Nouvelle taxinomie37 du MSI/IHM

Nous pouvons faire plus de progrès lorsque nous savons où nous en sommes et ce qui a été

fait.

En raison de la nature interdisciplinaire du sous-champ du MSI/IHM et du développement

technologique, une taxinomie est demandée pour illustrer les études de MSI/IHM et les

directions futures possibles.

Les taxinomies existantes (Beard & Peterson, 1988; Killingsworth et al, 1997; Martin, 1997)

ont besoin d’être ré-évaluées pour leur convenance dans les situations d’aujourd’hui.

Par exemple, la prise de décision est une tâche organisationnelle dans ces taxinomies. Cet

objet a changé significativement dans les années antérieures (par exemple, les banques en

ligne (Bhattacherjee, 2001), l’utilisation générale du World Wide Web (Agarwal et

Karahanna, 2000), et la recherche d’informations sur World Wide Web (Zhang, 2000).

Les taxinomies existantes considèrent l’analyse du système comme l’une des composantes

d’un modèle. Peu d’attention est accordée à l’impact des systèmes ou des technologies de

l’information sur le niveau individuel, du groupe et des organisations. Ces domaines,

cependant, ont attiré une attention significative dans le champ du MSI récemment, et

évidemment sous l’effet du développement et de la maturité des divers modèles théoriques

(comme, le modèle de l’acceptation de la technologie (TAM : Technology Acceptance Model

(Davis, 1989; Venkatesh and Davis, 1996), Le modèle de l’adéquation technologie-tâche

(TTF : Task-Technology Fit model (Goodhue et al. , 1995), Le modèle de l’adéquation

cognitive (cognitive fit model (Vessey, 1991; Vessey and Galletta, 1991)).

Une autre limite de cette taxinomie est la focalisation profonde sur l’influence cognitive et la

productivité, plutôt que sur l’utilisateur holistique et l’expérience pragmatique au moment où

37 La taxinomie vise à proposer un ordre à l’intérieur duquel se rangeront les êtres réels. La classification, d’ampleur plus générale, porte non seulement sur les organismes les plus divers mais aussi sur des objets artificiels et idéaux, les sciences et les techniques, les livres, les œuvres d’art… (Encyclopédie Universalis)

Page 113: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

110

l’interaction avec la technologie de l’information se fait dans le travail ou dans d’autres

environnements.

En conclusion, les travaux de recherche sur l’Interaction Homme-Machine permettent de

comprendre les relations et les variables qui influencent l’interaction technologie / être

humain à l’intérieur du cadre managérial et/ou organisationnel, à travers une évidence

empirique.

Cette compréhension est utilisée :

- Pour aider les professionnels en SI à développer les systèmes plus utilisés et donc

plus réussis ;

- Pour aider les utilisateurs en SI (directeurs, employés et consommateurs) à être plus

productifs et satisfaits des systèmes d’information ;

- Pour accroître l’efficacité organisationnelle en tant que résultat de la productivité

des utilisateurs et des professionnels en SI ;

- Pour fournir aux chercheurs une connaissance cumulative et cohésive pour étendre

les limites théoriques.

Zangh et Li (2004) présentent un modèle qui met en jeu cinq composantes : Agent humain,

technologie, interaction, tâche et contexte. Il existe différentes manières de compréhension

des êtres humains par rapport à leurs caractéristiques spécifiques pertinentes et leur

interaction avec les technologies de l’information.

La technologie a été largement définie y compris les machines, les logiciels, les applications,

les données, les informations, les connaissances et les procédures.

Ces auteurs nous proposent un cadre conceptuel de cette Interaction Homme-Machine. Ce

cadre est schématisé comme suit :

Page 114: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

111

Figure 17. Cadre conceptuel de l’IHM (Zangh et Li, 2004)

Pour mieux comprendre la relation Homme-Machine, il faut :

- Chercher à comprendre les besoins et les problèmes de bases qui affectent

l’interaction homme-machine.

- Chercher à mesurer l’efficacité des techniques utilisées par l’humain dans les

situations de résolution des problèmes (La plupart des études sont utilisées pour

l’interaction des utilisateurs avec les ressources du WEB)

Plusieurs modèles théoriques en MSI ont été développés au service de cette relation.

Nous en approfondissons quelques-uns pour construire le second modèle théorique particulier

à cette étude, avec l’objectif principal d’évaluer la relation entre l’agent humain/l’agent

intelligent. Ces modèles sélectionnés seront détaillés dans la section suivante.

Technologie - Technologie basique - Technologie avancée

Contexte Contexte global Contexte social Contexte organisationnel

Tâche/Travail Objectifs de la tâche Caractéristiques de la tâche

Humain - Démographie - Physique - Niveau de cognition - Niveau d’émotion

Con

cept

ion

Util

isab

ilité

Util

isat

ion

Eva

luat

ion

Impa

ct

Page 115: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

112

Section 2 : Processus d’évaluation des Systèmes d’Information : Instruments de mesure

Dans la littérature des systèmes d’information, les chercheurs sont intéressés aux mesures

subjectives du succès des systèmes d’information. En effet, ils ont fait le lien entre les

perceptions des utilisateurs, en tant que variable de mesure, et le succès du système

d’information.

Ces études suggèrent que les attitudes des utilisateurs puissent être utilisées en tant qu’une

mesure substitut à la qualité du système, la qualité de l’information, l’utilisation du système,

la satisfaction de l’utilisateur, l’impact individuel et l’impact organisationnel. (Delone &

McLean, 1992)

Les mesures du succès du système d’information qui sont perceptibles, ont été employées

d’une manière extensive. Quelques instruments de mesure ont été liés à la satisfaction de

l’utilisateur en information (UIS38) en tant qu’une mesure substitut du succès du système

d’information.

Auteurs Instruments de mesure Miller, 1989 Bailey et Pearson, 1983 (une version de 22 items, puis une version de 13 items développée par Ives et al., 1983 et Baroudi et Orlikowski, 1986) Difficultés conceptuelles et méthodologiques associées à ces auteurs (Galletta et al., 1989 ; Melone, 1990 ; Treacy, 1985)

Mesure de la satisfaction de l’utilisateur en information en tant qu’une mesure substitut du succès d’un système d’information. L’une des difficultés avec l’instrument UIS est la distinction entre les aspects cognitifs (croyances sur les caractéristiques du système) et les aspects affectifs (attitudes vis à vis du système ou vis à vis de l’utilisation du système)

Goodhue, 1988 Cette confusion introduit des biais et des erreurs de mesure.

Doll et Torkzadeh, 1988 Doll et Torkzadeh, 1991

L’instrument UIS n’est pas conforme pour mesurer les activités de succès de EUC39 parce qu’il est destiné uniquement à l’environnement informatique conventionnel. De ce fait, ils proposent un instrument de 12 items mesurant cinq facteurs. Pour pallier la limite des mesures reliées à la performance, ces auteurs considèrent les comportements reliés à la performance

38 User Information Satisfaction (UIS) 39 End-User Computer (EUC)

Page 116: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

113

comme étant un problème spécifique, c’est pourquoi le développement des mesures généralisable est difficile.

Rosenblueth et al, 1943 Une des propriétés génériques du système est qu’il a des objectifs orientés, l’évaluation du succès d’un SI peut prendre en compte les impacts individuels et organisationnels du système.

Delone et McLean, 1992 La qualité du système et la qualité de l’information sont pris en compte pour affecter la satisfaction de l’utilisateur et l’utilisation du système. Ces derniers agissent comme des antécédents sur les impacts individuels et organisationnels.

Etezadi-Amoli et al., 1996 L’unité d’analyse est l’utilisateur, ces auteurs ont limité le domaine du modèle du succès du SI et ils l’ont appliqué au modèle de succès de EUC. Variables indépendantes : qualité du système et la qualité de l’information. Variable dépendante : Performance perçue par l’utilisateur.

Tableau 14. Exemples d’instruments de mesure pour l’évaluation des SI.

Ce tableau donne une idée générale sur les travaux réalisés sur l’évaluation des facteurs clés

de réussite lors de l’utilisation d’un SI. Nous détaillerons dans cette section les instruments de

mesure qui ont évalué la performance des SI afin de déboucher un modèle propre à cette

étude.

Page 117: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

114

1. Modèle de Goodhue et Thompson (1995) : Adéquation Technologie-Tâche

1.1. Problématique

Ces auteurs ont construit un modèle théorique multidimensionnel qui met en relation les

caractéristiques de la tâche, les caractéristiques de l’individu et les caractéristiques du TSI.

Ils se proposent d’étudier l’impact de ce sous-système utilisateur - TSI sur la performance

individuelle des utilisateurs considérée comme la variable dépendante de la réussite des TSI.

1.2. Méthode

Ils ont construit un modèle théorique à partir de la revue de la littérature. Dans ce modèle ils

ont tenté d’expliciter l’impact des TSI sur la performance individuelle. L’opérationnalisation

des variables de ce modèle est effectuée en référence à des recherches antérieures (Davis,

1989 ; Baily et Pearson, 1983).

Ce modèle a été testé sur un échantillon de 600 individus appartenant à 26 départements

différents dans deux organisations et utilisant 25 applications TSI. Le test des hypothèses a été

effectué par recours aux techniques statistiques usuelles : tests de corrélation, analyses en

composantes principales et régressions linéaires.

1.3. Résultats

Evolution des Modèles Limites

- Recherches focalisées sur l’Utilisation du TSI : basées sur les théories d’attitudes et de comportement individuel (Bagozzi, 1982 ; Fishbein et Ajzen, 1975 ; Triandis, 1982) Les aspects de la technologie ont un impact sur les perceptions et les attitudes des utilisateurs. Ces perceptions et attitudes sont étudiées en terme d’utilité perçue (Davis, 1989) ou de satisfaction de l’utilisateur de l’information, (Baroudi, et al, 1986) L’utilisation du TSI a un impact positif sur la performance. - Recherches focalisées sur l’adéquation technologie / tâche :L’adéquation détermine la performance. Deux études sont liées aux

Bien que ces perspectives donnent lieu à l’impact de la technologie de l’information sur la performance, le degré d’utilisation n’est pas toujours volontaire. Les utilisateurs du système considèrent beaucoup plus l’utilisation comme étant une fonction d’affectation du travail que des systèmes de qualité, d’utilité ou des attitudes des utilisateurs face à leur utilisation. De plus, l’utilisation d’un système n’implique pas nécessairement une grande performance. Selon ce courant c’est l’adéquation entre la technologie et la tâche dont celle-ci est le support qui est l’élément déterminant de la

Page 118: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

115

laboratoires d’expérimentation, l’une sur l’impact de la représentation des données sur la performance. L’autre porte sur la séparation entre les représentations des données (caractéristiques de la technologie) et les tâches. Cette séparation peut entraîner le ralentissement de la performance de la prise de décision par le besoin des translations additionnelles entre les représentations des données ou les processus de décision. (Vessey, 1991)

performance individuelle et dans certains cas de son degré d’utilisation. Goodhue affirme que les TSI ont un impact positif sur la performance des individus si un niveau satisfaisant d’adéquation entre les fonctionnalités techniques des TSI et les tâches à effectuer est assuré. D’autres travaux ont conclu que l’adéquation TSI-tâche est un précurseur de l’utilisation au niveau individuel (Floyd 1986, 1988) Cette dimension est définie par : « le degré de correspondance entre les besoins fonctionnels relatifs à la tâche, les capacités individuelles et les fonctionnalités techniques offertes par les TSI »

Tableau 15. Résultats des travaux de Goodhue & Thompson (1995)

La dimension Adéquation -Technologie -Tâche est utilisée comme variable déterminante de la

performance individuelle, conjointement avec la première variable explicative identifiée « le

degré d’utilisation du TSI », dans un schéma causal simple assorti d’une boucle de rétroaction

qui va de la variable expliquée « la performance individuelle » à ses deux variables

explicatives.

Le troisième modèle combine les deux perspectives précédentes. Dans ce modèle la

performance est déterminée à la fois par l’utilisation et l’adéquation technologie/tâche.

Page 119: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

116

Figure 18. Trois modèles sur le lien entre la technologie et la performance (Goodhue et Thompson, 1995)

1.4. Opérationnalisation du modèle théorique

L’ensemble des construits identifiés à partir de la revue de la littérature et leurs liens de

causalité sont explicités dans cette sous-section.

Goodhue et Thompson ont proposé un modèle réduit dans lequel ils mettent l’accent sur cinq

dimensions :

1. La dimension caractéristique de la tâche est mesurée par ces critères :

- La complexité de la tâche (l’aspect routinier versus non-routinier)

- L’interdépendance entre les tâches (transversalité)

- Le niveau hiérarchique de l’utilisateur.

2. La dimension caractéristique de la technologie est mesurée par ces critères :

- Les fonctionnalités du TSI

- Le département d’appartenance de l’utilisateur

Utilisation

Caractéristiques de la technologie

Précurseurs d’utilisation : Croyances, émotion

Utilisation

Impact sur la performance

Utilisation & Adéquation

Adéquation

Impact sur la performance

Utilisation Précurseurs d’utilisation

Caractéristiques de la technologie

Caractéristiques de la tâche

Adéquation Technologie/ Tâche

Impact sur la performance

Adéquation Technologie/ Tâche

Caractéristiques de la technologie

Caractéristiques de la tâche

Utilisation

Page 120: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

117

3. La dimension adéquation – technologie – tâche est mesurée par huit critères : la

qualité des données, l’ajustement par rapport aux besoins, l’accessibilité, la compatibilité, la

pertinence, la conformité, la facilité d’apprentissage et les relations avec les concepteurs.

4. La dimension utilisation de la TSI est mesurée par le critère degré de dépendance

perçue envers la TSI. Les auteurs considèrent ce critère comme plus adéquat que les critères

purement techniques (temps de connexion au système, nombre de requêtes) et plus explicite

que le critère binaire utilisation versus non-utilisation, car il prend en compte la part non

volontaire de l’utilisation, car il prend en compte la part non volontaire de l’utilisation due

aux caractéristiques inhérentes à la configuration de la tâche.

5. La dimension impacts sur la performance est mesurée par rapport aux perceptions

des utilisateurs quant à leur efficacité dans l’accomplissement de leurs tâches, donc en termes

de performance perçue.

Ces critères sont adaptés à partir des études antérieures, notamment les travaux de Lucas

(1973), Davis (1989), Baroudi et Orlikoawski (1988), Baily et Pearson (1983), Doll et

Torkzadeh (1988)… Ils sont évalués par des mesures perceptuelles collectées auprès des

utilisateurs moyennant un questionnaire.

Les liens de causalité entre ces dimensions sont explicités dans les hypothèses suivantes :

H1. Le degré de l’adéquation technologie-tâche est déterminé à la fois par les

caractéristiques de la tâche et celles du TSI.

H2. Le degré d’adéquation technologie-tâche a un impact sur le degré d’utilisation du

TSI.

H3. Le degré d’adéquation technologie-tâche et le degré d’utilisation du TSI ont

conjointement un pouvoir explicatif des impacts perçus sur la performance des utilisateurs.

Page 121: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

118

2. Approche empirique de Franz et Robey (1986)

2.1. Problématique

Franz et Robey ont proposé d’enquêter sur la relation tridimensionnelle entre l’engagement

des utilisateurs, l’utilité perçue du TSI et le contexte organisationnel. Ils ont examiné les

impacts directs et médiateurs de ce contexte sur chacune des deux premières variables.

2.2. Méthode

Il s’agit d’un schéma classique de recherche hypothético-déductive où les auteurs procèdent à

la conceptualisation des relations entre les trois blocs de variables dans un modèle théorique.

Ils ont confronté ce modèle à la réalité moyennant un travail d’enquête par questionnaire au

près d’un échantillon de 118 utilisateurs des TSI dans 38 organisations.

Figure 19. Le modèle théorique de Franz et Robey (1986)

Ces auteurs ont proposé des critères de mesure pour chacune des trois principales variables et

ont construit sous forme d’hypothèses de recherche, quatre types de relations susceptibles de

les unir:

Processus de prise de décision : Niveaux hiérarchiques impliqués Décisions structurées/non structurées Caractéristiques organisationnelles : Taille Age Décentralisation/Centralisation Caractéristiques du département TSI : Taille Age Place dans la structure organisationnelle Périmètre et étendue des impacts

Engagement des utilisateurs : Dans le processus de conception des TSI Dans le processus d’implémentation des TSI

Utilité perçue des TSI

(I)

(III)

(IV) (II)

Page 122: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

119

- Le contexte organisationnel : cette variable comprend des déterminants tels que la

taille, l’âge et le degré de décentralisation/centralisation ; des déterminants relatifs au

département TSI (âge, taille, périmètre d’impact) ; et enfin les déterminants du

processus décisionnel dans l’organisation étant entendu qu’il s’agit d’un système

d’information d’aide à la décision, ce qui correspond aux caractéristiques de la tâche.

- L’engagement des utilisateurs : entendu au sens de l’ensemble des activités et

attitudes des utilisateurs qui traduisent leur implication dans le projet de mise en

place du TSI. Deux principales phases sont distinguées : la phase de conception,

définition des besoins et construction de la solution technico-organisationnelle ; et la

phase d’implantation de la solution proprement dite, comprenant le test et

l’apprentissage des fonctionnalités.

- L’utilité perçue du TSI : elle est conçue comme la variable substitut de l’évaluation

de la réussite du TSI, du point de vue des utilisateurs. Elle est assortie d’une mesure

multi-dimensionnelle (12 items du questionnaire) et évaluée par une échelle

psychométrique.

Sur cette base, les hypothèses de recherche concernent :

1. La relation de cause à effet entre l’engagement des utilisateurs et l’utilité perçue du

TSI. Plus l’engagement est important, plus importante sera l’utilité perçue.

2. Certaines caractéristiques du contexte organisationnel sont les antécédents de

l’engagement des utilisateurs.

3. Certaines caractéristiques du contexte organisationnel modèrent la relation entre

l’engagement des utilisateurs et l’utilité perçue du TSI.

4. Certaines caractéristiques du contexte organisationnel affectent directement l’utilité

perçue du TSI.

Page 123: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

120

3. Modèle de l’acceptation des TSI de Davis (1989)

3.1. Problématique

Davis a proposé un instrument d’évaluation des TSI qui met en valeur de nouvelles variables

dépendantes et indépendantes et étudie leurs interactions. La principale hypothèse est : la

réussite d’un TSI est tributaire de l’acceptation de cet outil par les utilisateurs. Cette

acceptation, évaluée par le degré d’utilisation de l’outil, dépend de deux facteurs explicatifs :

l’utilité perçue et la facilité perçue d’utilisation et de manipulation.

3.2. Méthode

Davis a développé deux construits : Utilité Perçue et Facilité d’Utilisation. Ces deux

construits multidimensionnels ont été évalués chacun par 14 critères de mesure (assortis d’une

échelle d’évaluation de 7 intervalles).

Le nombre de critères a été réduit suite à un test de validation (Doll, Hendrickson and Deng,

1998) à six critères pour chaque construit. Cette étude, utilisant un échantillon de 902

répondants, a conduit par :

- une analyse factorielle confirmatoire à valider et ajuster l’instrument original

proposé par Davis ;

- une analyse de l’invariance multigroupe à valider l’équivalence de ces instruments

auprès des groupes supérieurs en se basant sur le type d’application, l’expérience

avec l’informatique et le sexe.

Cette étude a permis de déterminer les impacts sur le degré d’acceptation des TSI (Davis’s

Technology Acceptance Model : TAM) évalués par les utilisateurs.

Page 124: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

121

Figure 20. Le modèle opérationnel de Davis (1989)

La variable dépendante “Degré d’utilisation des TSI” est ensuite introduite dans les analyses,

avec ces deux sous-critères de mesure : « Degré d’utilisation immédiat » et « Degré

d’utilisation attendu ». L’étude des relations de corrélation de ces mesures avec les 12 critères

des variables indépendantes Utilité Perçue et Facilité d’utilisation perçue, permettent à

l’auteur de conclure que :

- Des relations de corrélation positives existent entre les deux variables indépendantes

et la variable dépendante.

- L’utilité perçue est plus fortement corrélée avec le degré d’utilisation que ne l’est la

facilité perçue d’utilisation.

- Une relation de corrélation directe existe entre l’utilité perçue et le degré

d’utilisation. La facilité d’utilisation perçue joue le rôle de variable médiatrice entre

ces deux dimensions.

L’utilité perçue et la facilité d’utilisation perçue peuvent former un schéma causal sur le degré

d’utilisation du TSI comme ils peuvent être considérés comme des antécédents sur cette

même variable.

L’auteur note que l’instrument d’évaluation qu’il a développé pourrait être utilisé en tant

qu’outil de diagnostic des problèmes liés à l’utilisation des TSI dans les organisations.

Utilité Perçue

PU1

PU4

PU2

PU6

PU3

PU5

Facilité d’utilisation perçue

EOU3

EOU6

EOU5

EOU4

EOU2

EOU1

Page 125: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

122

Le modèle d’acceptation de la technologie (TAM) de Davis est un modèle basé sur la théorie

de l’action raisonnée (Theory of Reasoned Action, Ajzen and Fishbein, 1980). Les résultats

de ce modèle ont permis d’approfondir la recherche sur l’évaluation des TSI et en élargissant

son application aux problèmes liés à l’acceptation dans le e-commerce.

Venkatesh et Davis (1996) ont proposé un « modèle d’acceptation de la technologie 2 » qui

tient compte des facteurs liés au contexte social (les normes, l’utilisation volontaire, l’image

véhiculée par la technologie) et des facteurs cognitifs en rapport avec l’auto-évaluation du

travail accompli par les utilisateurs et la facilité d’utilisation perçue.

D’autres travaux ont montré l’existence des caractéristiques individuelles et qui sont intégrés

dans le modèle en tant que déterminants de l’acceptation et de la réussite des TSI. Ces

caractéristiques sont liées à l’âge, au revenu et à la formation initiale des utilisateurs (Morris

et Venkatesh, 2000). Les résultats de ces études sont résumés dans le chapitre 6 de notre

thèse.

Des travaux ultérieurs ont permis d’affiner la théorisation et l’opérationnalisation de ce

modèle (Venkatesh et Davis, 1996 ; Gefen et al., 2000, Dasgupta et al., 2002).

Straub et Gefen (1999) ont validé l’instrument de mesure du modèle de Davis (TAM) en

utilisant la méthode d’équations structurelles. Le modèle testé est composée de rois variables :

- « L’intention à utiliser » (IUSE) une nouvelle technologie de l’information est le

produit de deux construits :

- « L’utilité perçue » (PU) d’utilisation de la technologie de l’information ;

- « La facilité d’utilisation perçue » (EOU) de son utilisation.

Figure 21. Le Modèle TAM de Straub, 1999 (repris de Davis, 1989)

Ce modèle est le modèle de base pour l’adoption de la technologie de l’information. Il

considère les deux construits : PU et EOU comme étant un système et qui ont un impact sur :

PU

EOU

IUSE H3

H2

H1

Page 126: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

123

- les attitudes à travers l’utilisation ;

- l’intention d’utilisation ;

- l’acceptation de la technologie de l’information (mesurée souvent par l’utilisation)

PU influence certaines variables comme par exemple l’intention d’utiliser un système.

Les attitudes à travers l’utilisation peuvent être choisies en tant que variables dépendantes,

elles sont des variables standards pour utiliser la technologie de l’information.

Page 127: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

124

4. Evaluation de la validité des Modèles de succès des SI : Rai et al. (2002)

DeLone & McLean notent la nature multidimensionnelle et interdépendante du succès des SI,

ce qui demande une attention de la part du chercheur en ce qui concerne la définition et la

mesure de chaque aspect du modèle.

La sélection des dimensions de succès et des mesures doivent être contingentes dans le

contexte de l’investigation empirique.

Il existe une discussion particulière dans la littérature concernant la mesure de l’utilisation des

SI et qui a été employée comme étant une mesure du succès des SI dans des études

quantitatives. (Davis 1989, Goodhue 1995, Igbaria et al. 1995, Seddon & Yip 1992). Elle a été

mesurée par différentes manières intégrant des algorithmes informatiques de l’utilisation

actuelle (Straub et al. 1995), l’utilisation actuelle estimée (Adams et al. 1992, Thompson et al.

1994), fréquence d’utilisation estimée (Davis 1989, Hartwick & Barki 1994, Igbaria et al.

1995) et la dépendance au système (Goodhue & Thompson 1995).

Seddon propose, « …pour une utilisation volontaire, de systèmes similaires par des

utilisateurs compétents, les mesures de l’utilisation des SI (comme le nombre d’heures et la

fréquence d’utilisation) peuvent avoir une influence sur les bénéfices de l’utilisation » (1997,

p.243)

Goodhue & Thompson (1995) notent que si la conceptualisation du comportement de

l’utilisateur est entouré par des disciplines en relation concernant les attitudes et le

comportement. Les mesures comme le nombre d’heures et la fréquence d’utilisation peuvent

être problématiques. Cependant, la décision d’utiliser un système est influencée par les

attitudes et les croyances. Les variations d’heures d’utilisation ou la fréquence d’utilisation

peut être la conséquence du poids de la tâche ou de l’adéquation technologie-tâche. Vu la

difficulté d’observation empirique de la proportion de temps choisie par l’utilisateur à utiliser

un système, ces auteurs notent que l’utilisation peut être reflétée par : « la durée pour laquelle

un système d’information a été intégré pour chaque travail routinier individuel ». (p. 223)

A titre d’informations, plus le système d’information est inclus dans le travail routinier de

l’utilisateur, plus la personne devient dépendante du système. (Goodhue & Thompson, 1995).

Par conséquent, l’utilisation du SI est expliquée en terme de dépendance de l’utilisateur au SI.

Page 128: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

125

Chaque modèle propose une taxinomie de catégories : qualité du système, qualité de

l’information, satisfaction de l’utilisateur et l’utilisation des SI. Chacun des deux intègre une

variable additionnelle. L’utilité perçue que Delone et McLean n’ont pas intégré dans leur

taxinomie, mais qui est une composante intégrée dans le modèle de Seddon. Les variables des

impacts organisationnels et sociétaux n’ont pas été étudiées parce que les données sont

collectées dans une seule organisation.

4.1. Modèle de DeLone & McLean (1992)

Ce lien n’est pas pris en considération dans le modèle de Rai et al.(2002)

Figure 22. Le modèle théorique de deLone et McLean, 1992.

Dans le modèle DeLone & McLean, la qualité du système et la qualité de l’information sont

décrits par leur affectation à la fois à l’utilisation du SI et à la satisfaction de l’utilisateur et

qui sont à leur tour des antécédents directs sur l’impact individuel. DeLone & McLean (1992,

p.62) conceptualisent leur modèle en terme d’idées offertes par Shannon & Weaver (1949) et

Mason (1978). Shannon & Weaver (1949) groupent les problèmes de communication à

travers trois niveaux hiérarchiques : le niveau technique, le niveau sémantique, et le niveau

d’efficacité. Le niveau technique concerne cette question : comment le système peut-il

transférer les symboles de communication ?

Le niveau sémantique concerne l’interprétation du sens par le receveur comme la

comparaison du sens de l’intention de l’envoyeur.

Le niveau de l’efficacité est relié à : comment le sens transporté par le receveur affecte -t-il le

comportement actuel ?

Qualité du système

Satisfaction de l’utilisateur

Utilisation du SI

Qualité de l’information

Impact individuel

Impact organisationnel

Page 129: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

126

Mason adapte les trois niveaux de Shannon & Weaver des problèmes de communication au

contexte du SI. Mason a interprété le niveau de l’efficacité pour inclure l’influence des

utilisateurs et a défini le niveau influence-efficacité en terme d’événements qui peuvent

influencer les utilisateurs.

Les évènements intègrent l’information reçue, l’évaluation de l’information et l’application de

l’information.

L’évaluation et l’application de l’information peuvent en fait changer le comportement de

l’utilisateur.

La qualité du système appartient au niveau technique, la qualité de l’information appartient au

niveau sémantique. L’utilisation du système, la satisfaction de l’utilisateur et l’impact

individuel appartiennent au niveau de l’influence-efficacité.

La hiérarchie des niveaux fournit une base pour la modélisation de la qualité du système et la

qualité de l’information comme des antécédents de l’utilisation du SI, la satisfaction de

l’utilisateur et l’impact individuel.

DeLone & McLean (1992) ont appliqué les arguments de Mason au modèle de l’utilisation et

la satisfaction de l’utilisateur (réponse à l’output de l’utilisation des SI) comme des

antécédents de l’impact individuel (effet de l’information sur le comportement).

L’aspect central du modèle de McLean et DeLone est que l’utilisation du SI est considéré

comme une variable de succès du SI. Par conséquent, elle est intégrée dans leur modèle de

succès. Ils nomment l’utilisation des SI comme la « consommation » des outputs du SI

(1992), et ils la considèrent précurseur de l’impact individuel.

Dans leur modèle, l’utilisation des SI est requis pour la réalisation d’un impact significatif des

bénéfices du système.

DeLone & McLean notent l’importance de spécification des dimensions du succès du SI et

associent les relations soigneusement dans un contexte donné. Dans le modèle de Rai et al.

(2002) la satisfaction de l’utilisateur a un impact sur l’utilisation du SI, en supposant que le

niveau élevé de la satisfaction construit une grande dépendance de l’utilisateur au système.

Mais ils n’ont pas spécifié un lien causal de l’utilisation d’un système à la satisfaction de

l’utilisateur. La mesure de l’utilisation des SI est une variable comportementale. Leur

spécification de la relation entre la satisfaction de l’utilisateur et l’utilisation du SI

(dépendance au système) est uniforme avec le modèle de l’acceptation de la technologie

Page 130: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

127

(Technology Acceptance Model : TAM), la théorie du comportement planifié (Theory of

Planned Behavior), et le système de la chaîne de valeur proposé par Torkzadeh & Doll (1991),

dans lequel ils suggèrent que les attitudes ont un impact sur le comportement.

Dans le but d’intégrer l’utilité perçue dans le modèle de Delone & McLean, ces auteurs ont

décidé de savoir dans quelle catégorie de leur taxonomie elle pourra se présenter. Quoique

DeLone & McLean n’ont pas intégré l’utilité perçue dans leur taxinomie, ils ont supposé

qu’elle faisait partie de l’impact individuel.

Cette mesure est en parallèle avec “l’évaluation personnelle su SI”, que DeLone & McLean

intègrent sous la catégorie de l’impact individuel.

Les perceptions de l’utilité dérivent des évaluations personnelles du SI. La mesure est ainsi

reliée directement aux divers construits additionnels (exemple : la productivité individuelle

améliorée, la tâche de la performance l’influence ou la puissance individuelle) à l’intérieur de

la catégorie de l’impact individuel qui est reliée aux aspects de la performance du travail.

C’est une composante clé de l’utilité perçue et qui a été conceptualisé par Seddon (1997) ou

Davis (1989).

D’ailleurs, l’utilité perçue est une mesure globale de la perception des utilisateurs, donc elle

ne doit pas être compatible avec les autres caractéristiques des catégories de McLean &

DeLone. Les catégories de la qualité du système et de la qualité de l’information sont reliées

aux qualités spécifiques d’un système ou de l’information générée par un système. Les

catégories de la satisfaction de l’utilisateur et l’utilisation du SI ne sont pas définies en terme

de perception. Cependant, l’utilité peut être perceptive, en partie de l’effet que le SI peut avoir

sur l’organisation et la société. Cette mesure est reliée spécifiquement aux utilisateurs et donc

elle est uniforme avec la catégorie de l’impact individuel, la catégorie de l’impact

organisationnel ou la catégorie de l’impact sociétal.

D’après ce raisonnement, l’utilité perçue est positionnée dans le modèle de DeLone &

McLean comme un impact individuel.

Page 131: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

128

4.2. Modèle de Seddon (1997)

Figure 23. La modèle théorique de Seddon (1997)

Rai et al (2002) ont dégagé la différence principale qui existe entre les modèles de Seddon et

DeLone & McLean : celle de la définition et de l’emplacement de l’utilisation des SI.

Seddon suggère que l’utilisation doit précéder les impacts et les bénéfices, mais qu’elle n’a

pas de cause sur eux.

Seddon (1997) considère l’utilisation des SI comme une variable liée au comportement

reflétant l’espérance du bénéfice net à travers l’utilisation d’un SI.

Cette définition alternative de l’utilisation du SI est une conséquence du succès du SI, plutôt

qu’une caractéristique inhérente au succès du SI.

De plus, l’utilisation du SI comme un comportement est séparée du modèle de succès du SI, et

le SI relié au comportement est modelé comme étant causé par le succès du SI.

Cela suppose trois classes de variables inter-reliées.

Les deux premières classes de variables :

- Qualité de l’information et du système ;

Conséquences individuelles, Organisationnelles et sociale de l’utilisation des SI.

Satisfaction de l’utilisateur

Qualité de l’information

Individus Utilité perçue

Qualité du système

Société

Organisations

Bénéfices nets de la future utilisation Utilisation

des SI

Page 132: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

129

- Les perceptions du bénéfice net de l’utilisation d’un SI.

Elles constituent le modèle de succès de l’utilisation du SI.

La troisième classe de variables se focalise sur l’utilisation des SI comme un comportement et

elle constitue un modèle de comportement partiel de l’utilisation du SI.

Le modèle contient un lien direct dominant de la qualité du système et de l’information vers

l’utilité perçue et la satisfaction de l’utilisateur.

L’utilité perçue a un impact sur la satisfaction de l’utilisateur. Le modèle de succès du SI et le

modèle de comportement partiel de l’utilisation du SI sont liés par un lien allant de la

satisfaction de l’utilisateur vers des bénéfices nets espérés de l’utilisation future du SI, et qui à

son tour, a un impact sur l’utilisation du SI.

Rai et al. tiennent en considération l’impact direct de la satisfaction de l’utilisateur sur

l’utilisation du SI, et ne tiennent pas compte des bénéfices nets espérés de l’utilisation future

du SI.

Page 133: thèse dauphine - nombreux documents chercheurs +

Chapitre 3

130

Conclusion

Dans le cadre de ce chapitre, nous avons montré l’importance de l’existence humaine dans les

modèles d’évaluation des systèmes d’information. Cette démonstration nous a obligé à nous

orienter vers le domaine de l’Interaction Homme-Machine pour pouvoir expliciter la

perception de l’utilisateur auprès de sa machine ou son logiciel. C’est pourquoi nous avons

consacré la première section à présenter les dimensions théoriques de l’Interaction Homme-

Machine dans le Management des Systèmes d’Information.

L’intérêt des modèles de mesure exposés dans la deuxième section de ce chapitre est la

structuration de la littérature sur l’évaluation des TSI autour des principaux niveaux

d’évaluation : le système, l’individu et l’organisation.

Notre objectif est de présenter les travaux que nous jugeons significatifs pour chacun des trois

niveaux. Ces travaux fournissent les matériaux de base à la caractérisation théorique et

opérationnelle de notre modèle théorique présentée dans le chapitre 4 et 5. Le choix de ces

modèles a conduit à mettre en évidence deux modèles importants dans la littérature des

Systèmes d’Information. Le premier est celui de l’adéquation technologie-tâche de Goodhue

et Thompson (1995). Le second modèle est celui de l’acceptation d’une technologie de Davis

(1989). Ces deux modèles peuvent répondre à la problématique de notre recherche :

Comment les agents intelligents sont-ils intégrés et utilisés dans le cadre du processus de

veille startégique?

Le quatrième chapitre fait l’objet, en premier lieu, d’une présentation du positionnement

épistémologique et méthodologique de cette étude, et en deuxième partie d’un exposé de la

deuxième phase de collecte de données de cette recherche.

Notre modèle sera présenté avec les hypothèses dans la synthèse de la première partie de cette

recherche (section suivante).

Page 134: thèse dauphine - nombreux documents chercheurs +

131

Synthèse de la Partie 1. Structure globale du deuxième modèle théorique

L’étude reprend un certain nombre de variables issues de la littérature en systèmes

d’information, qui s’inscrivent dans la problématique de l’évaluation de l’utilisation des

agents intelligents dans le cadre du processus de veille stratégique. Ainsi, nous avons testé

l’influence de l’adéquation technologie/tâche et de l’acceptation de cette technologie sur son

degré d’utilisation.

Pour chercher cet impact, nous proposons maintenant le second modèle théorique, fondé sur

une lecture et une synthèse dense de la littérature sur l’évaluation des systèmes d’information,

dans lequel nous mettons en relation Cinq Variables Latentes du premier ordre :

Variable I. Caractéristiques Tâche/Travail

Variable II. Caractéristiques de la technologie (l’appartenance à un département et les

AI utilisés, Fonctionnalités des AI)

Variable III. Adéquation entre Technologie / Tâche.

Variable IV. Degré d’utilisation de la technologie des Agents Intelligents.

Variable V. L’acceptation des AI (Satisfaction de l’utilisateur, Facilité d’utilisation des

AI, Utilité perçue, Intention d’utilisation des AI dans le processus de prise de décision).

Page 135: thèse dauphine - nombreux documents chercheurs +

132

Figure 24. Proposition du deuxième modèle théorique40

40 La présentation finale de ce modèle théorique est fixée après un suivi d’un processus itératif entre la théorie et la pratique. Elle est adaptée aux résultats finaux de la modélisation.

Degré d’utilisation des Agents Intelligents (AI):

Intensité d’utilisation

Acceptation des AI : • Facilité d’utilisation des AI • Utilité perçue des AI • Degré de satisfaction • Intention de leur utilisation

dans le processus de prise de décision

Adéquation Technologie/Tâche • Qualité des données • Localisation des données • Autorisation d’accès • Compatibilité (Conformité) • Pertinence des systèmes • Qualité du service des AI.

Caractéristiques de la technologie :

• Système utilisé • Département • Fonctionnalités AI

Caractéristiques de la tâche :

• Aspects • Interdépendance

H1

H3

H4 H2

Q3

Q1

Q2

Q2

Page 136: thèse dauphine - nombreux documents chercheurs +

133

Nous proposons dans ce modèle cinq variables à expliquer du premier ordre41 :

Variable I. La dimension « Caractéristiques de la tâche » est expliquée par :

a. Aspects routiniers ou non routiniers (complexité de la tâche)

b. Interdépendance entre les tâches (tâches délimitées par le développement versus

tâches transversales)

Variable II. La dimension « Caractéristiques de la technologie » est mesurée par :

a. Système utilisé : Agent Intelligent

b. Appartenance à un département

c. Fonctionnalités des AI : sont les capacités du système à aider l’individu ou le groupe

dans sa tâche (Eireman, Niederman et Adams, 1995) et elles déterminent le type du système

utilisé (Benbasat et Nault, 1990 ; Wierenga et Van Bruggen, 2000)

Variable III. Le construit « Adéquation Technologie / Tâche » qui a pour but

d’évaluer la perception de l’utilisateur vis-à-vis du système utilisé. Cette dimension est définie

par le degré de correspondance entre les besoins fonctionnels relatifs à la tâche et les

fonctionnalités techniques offertes par les TSI. Elle est expliquée par six critères :

a. Qualité des données : mesure la correspondance entre les besoins et les données

disponibles, elle mesure aussi l’exactitude de ces données disponibles, ces données se

trouvent-elles à un niveau de détail approprié pour les tâches de mon groupe ?

b. Localisation des données : mesure la facilité de déterminer la disponibilité et le sens

exact des données (l’existence en temps voulu et sous le format voulu de l’information

recherchée).

c. Autorisation d’accès : mesure l’accessibilité des données (facilité de connexion de

l’utilisateur à l’AI et facilité d’extraction de l’information recherchée).

d. Compatibilité : entre les différentes sources de données.

e. Pertinence du système : c’est le fait de s’assurer que les AI ne posent pas de

problèmes inattendus les rendent plus difficile à utiliser.

41 Le test des hypothèses a été effectué entre les variables du second ordre.

Page 137: thèse dauphine - nombreux documents chercheurs +

134

f. Relations avec l’équipe SI42 : consistant à mesurer à travers cette sous-dimension

l’intérêt des AI, le temps de réponse envisagé pour répondre à mes requêtes, la validité et la

qualité technique de ces systèmes.

Variable IV. Le construit « Degré d’utilisation des AI » est expliquée par :

a. Intensité : c’est la fréquence d’utilisation, c’est à dire une appréciation subjective de

l’augmentation ou de la diminution du degré d’utilisation. Le degré d’utilisation de

l’utilisateur dans l’intégration du système dépend de la stratégie adoptée par

l’entreprise.

Variable V. Le construit de l’acceptation de la technologie des AI :

En se basant sur le « Modèle d’Acceptation d’une Technologie » de Davis’86, cette

dimension sera expliquée par :

a. Facilité d’utilisation de la technologie des AI (Davis’89) : mesure le degré de croyance

d’un utilisateur quant à l’effort à fournir pour utiliser le système. Pour mesurer la facilité

d’utilisation nous référons à l’instrument de mesure de Davis (1989) composé de six items,

car il est prouvé valide et fiable par Doll et al. (1998).

b. Utilité perçue des AI : Cette grandeur n’est pas directement observable. Cette notion vient

d’origine de l’analyse microéconomique : c’est la mesure de la valeur d’usage d’un

hardware ou d’un software pour un utilisateur. Elle mesure à la fois de l’impact des AI sur

la productivité et l’impact des AI sur la qualité de travail. L’utilité perçue est définie par le

degré d’amélioration des performances attendues de l’utilisation du système (Davis, 1989).

c. Satisfaction de l’utilisateur des AI: C’est le degré de continuité d’utilisation par l’individu

de cette innovation. La satisfaction auprès des services rendus des AI mesure l’étendu du

degré d’utilisation individuelle de cette technologie. C’est une croyance positive de la

perception individuelle qui montre la valeur des AI . (Compeau and Meister, 2002).

Cette variable est considérée comme une dimension de succès des AI. Elle peut influencer

l’intention, mais est également une conséquence de l’utilisation (Delone et McLean, 2003), de

l’utilité et la facilité d’utilisation perçues (Seddon, 1997).

d. Intention d’utilisation des AI dans le processus de prise de décision : Le manager peut

accepter un système, lorsqu’il l’utilise ou a l’intention de l’utiliser dans le processus de

42 Ce facteur mesure la qualité du service offert par les AI. Lors du traitement des données le libellé de ce facteur a été modifié.

Page 138: thèse dauphine - nombreux documents chercheurs +

135

prise de décision. L’intention d’un utilisateur à utiliser un système adopté par

l’organisation ainsi que sa satisfaction par cette utilisation dépendent de l’utilité et de la

facilité d’utilisation perçues du système.

Dans le cadre de ce modèle, et des variables sus-indiquées, nous formulons quatre

hypothèses :

Hypothèse 1 (H1), se rapportant aux Variables I, II et III :

L’adéquation Technologie / Tâche dépend à la fois des caractéristiques de la tâche et de la

technologie.

Hypothèse 2 (H2), se rapportant aux Variables III et IV :

L’Adéquation Technologie/Tâche a un impact sur le degré d’utilisation des AI.

Hypothèse 3 (H3), se rapportant aux Variables III et V :

Les variables de l’adéquation Technologie/Tâche ont un impact sur les variables de

l’acceptation de cette technologie.

Hypothèse 4 (H4), se rapportant aux Variables V et IV :

Les variables de l’acceptation de la technologie des AI ont un impact sur le degré d’utilisation

des AI.

Au bout de l’analyse, nous conclurons que les AI sont des outils d’aide à la décision, si et

seulement si nous constatons un impact positif.

Le modèle de Delone et McLean (2003) reprend l’intention d’utiliser le système et

l’utilisation du système mais contrairement au TAM, il mesure l’acceptation du système grâce

à la satisfaction au lieu de l’utilité et la facilité d’utilisation perçues.

Quand au modèle de Seddon (1997), il suggère que l’utilité et la facilité d’utilisation perçues

sont des antécédents de la satisfaction.

En résumé, l’objectif de ce sous-modèle (TAM) est de tester les liens existant entre la

satisfaction, l’utilité et la facilité d’utilisation perçues, ainsi que leur impact sur l’intention

d’utiliser le système et l’intensité d’utilisation.

A travers ces quatre hypothèses nous essayons de répondre aux questions de recherche

posées. Nous présentons dans le tableau suivant l’adéquation entre ces deux éléments :

Page 139: thèse dauphine - nombreux documents chercheurs +

136

Questions de recherche Hypothèses de recherche Justification

Q1 : Comment peut-on faire le choix entre les différents AI pour collecter, traiter et diffuser les informations ?

H1 : se propose d’étudier l’adéquation technologie-tâche à travers l’étude des caractéristiques de la tâche et celle de la technologie.

Cette hypothèse permet de justifier les fonctionnalités de cette technologie et le choix de son utilisation. Le contexte d’utilisation des AI est déterminé par l’adéquation entre la tâche et la technologie (nature de la tâche et caractéristiques de l’individu et de la technologie).

Q2 : Quelles sont les caractéristiques de l’utilisation des AI ?

H2 : stipule que le degré d’utilisation des AI dépend de l’adéquation entre la technologie adoptée et la tâche effectuée.

L’intensité d’utilisation des AI montre la dépendance perçue (Sanders, 1984) des utilisateurs par rapport à cette technologie. Le fait de vérifier l’impact de la dimension de l’adéquation tâche-technologie sur cette variable peut déterminer les caractéristiques de l’utilisation des AI.

Q2 : Comment sont-ils intégrés dans le processus de veille stratégique ?

H3 : se propose de montrer que l’acceptation des AI par l’utilisateur dépend de l’adéquation entre l’AI utilisé et la tâche accomplie.

Le fait de démontrer l’impact de l’adéquation tâche-technologie sur l’acceptation de l’utilisation des AI permet de mettre l’accent sur l’engagement de l’individu dans l’utilisation de cette technologie pour répondre à ses besoins liés au processus informationnel.

Q3 : Quel est l’impact de la perception des AI sur l’intensité d’utilisation ?

H4 : postule que le degré d’utilisation des AI dépend de l’acceptation de cette dernière par l’utilisateur.

L’acceptation de la technologie des AI détermine l’intensité de son utilisation. Cette hypothèse permet d’évaluer la perception des utilisateurs envers cette technologie.

Tableau 16. Rapprochement entre les hypothèses et les questions de recherche.

Page 140: thèse dauphine - nombreux documents chercheurs +

137

PARTIE 2. Méthodologie de recherche et mise en application du modèle théorique

Nous consacrons cette deuxième partie de la thèse à l’étude empirique. Dans le quatrième

chapitre, nous présentons une vue d’ensemble de la méthodologie et l’épistémologie de la

recherche en SI. Cette vue a facilité notre positionnement par rapport à notre méthodologie

suivie. Nous présentons aussi l’instrument de mesure de collecte de données.

Dans le cinquième chapitre, une statistique descriptive a été réalisée afin de présenter la

composition de notre échantillon.

Une analyse exploratoire a été faite suite à cette première description de l’échantillon. Cette

analyse est composée d’une Analyse en Composantes Principales, une classification et une

analyse de variance. Chaque méthode est réalisée pour un but bien précis et qui sera explicité

lors du développement de ce chapitre.

Dans le dernier chapitre, nous abordons la phase confirmatoire des résultats. L’objectif de

cette analyse est de tester les hypothèses de notre recherche. Les résultats finaux seront

présentés en détail dans ce chapitre.

Page 141: thèse dauphine - nombreux documents chercheurs +

138

CHAPITRE 4

Positionnement épistémologique et

méthodologie de la recherche

“Research with the purpose of discovering, classifying, and measuring

natural phenomena and the factors behind such phenomena”

Kerlinger F.N., Foundations of Behavioural Research, 3rd ed. New York: Holt Rinehart and Winston, 1986.

Page 142: thèse dauphine - nombreux documents chercheurs +

Chapitre4

139

Introduction

Le positionnement épistémologique et la méthodologie suivie se présentent comme les seuls

moyens pour répondre aux objectifs de cette recherche.

Ce chapitre est composé de deux sections. La première a pour objet de faire un rappel des

classifications paradigmatiques et méthodologiques dans le champ des systèmes

d’informations en s’inspirant des travaux de Hirschheim et Chen (2004).

La deuxième section a pour objet de présenter les méthodes de recueil de données sur

lesquelles cette recherche va se fonder.

Section 1 : Architecture de la recherche

1. Positionnement épistémologique

1.1. Classifications paradigmatiques

Landry et Banville (1992) ont classifié les chercheurs en trois groupes :

- Le courant principal des navigateurs qui héritent du positivisme logique ;

- L’unité des partisans qui favorisent le monisme méthodologique ;

- Les chevaliers du changement qui défendent le pluralisme méthodologique.

Cette classification permet de faire la différence entre ceux qui soutiennent un seul paradigme

(le courant principal des navigateurs et l’unité des partisans) et ceux qui défendent le

pluralisme méthodologique (les chevaliers du changement)

Par analogie à la typologie de Burrel et Morgan, le groupement de Landry et Banville a

différencié les fonctionnalistes (le courant principal des navigateurs et l’unité des partisans)

des non-fonctionnalistes (interprétativisme, humanisme radical et structuralisme radical).

Selon Hirshheim et Klein (1992), le néo-humanisme, le structuralisme radical n’ont pas atteint

un stade mature de développement dans la communauté de recherche en SI43.

43 La classification paradigmatique alternative a été trouvée par Chua (1986), dans laquelle trois paradigmes de base sont mentionnés : positivisme, interprétativisme et la théorie critique (Hirshheim & Klein, 2003). La théorie critique n’est pas encore établie dans le champ de SI (Orlikowski & Baroudi, 1991)

Page 143: thèse dauphine - nombreux documents chercheurs +

Chapitre4

140

Orlikowski & Baroudi (1991) et Goles & Hirshheim (2000) indiquent que le positivisme

domine la recherche en SI cependant d’autres paradigmes sont relativement faibles en

nombre. En effet, le seul paradigme réel alternatif et observable est celui de

l’interprétativisme (Walsham, 1995, 1995 ; Nandhakumar et Jones, 1997 ; Trauth et Jessup,

2000)

Les différences majeures entre le positivisme et l’interprétativisme concernant la recherche

sont triples. La première différence est ontologique. Les positivistes pensent que la réalité

existe objectivement et indépendamment des expériences humaines alors que les

interprétativistes accentuent le sens subjectif de la réalité qui est construite et reconstruite à

travers le processus de l’interaction sociale et humaine. (Burrell et Morgan, 1979)

La deuxième différence est épistémologique. Les positivistes s’intéressent aux théories de

tests hypothético-déductive. La connaissance scientifique doit contribuer à la vérification ou

l’infirmation et rechercher des résultats généralisables. Ainsi, la relation causale est toujours

présente et l’accouplement étroit à l’explication, la prévision, et le contrôle est prévu

(Orlikowski et Baroudi, 1991). Au contraire, les interprétativistes assument que la

connaissance scientifique doit être obtenue à travers la compréhension de l’interaction sociale

et humaine par laquelle le sens subjectif de la réalité est construit (Walsham, 1995).

La troisième différence est méthodologique. Les positivistes affirment que pour tester une

théorie hypothético-déductive, la recherche doit prendre une position de valeur-libre et

employer des mesures objectives pour collecter une recherche évidente. La méthode

quantitative comme le questionnaire est un instrument positiviste typique.

De l’autre côté, les interprétativistes argumentent que pour comprendre le sens encastré dans

l’interaction sociale et humaine, les chercheurs ont besoin de s’engager dans le cadre de

l’investigation sociale et apprendre comment l’interaction prend place auprès de la

perspective des participants. Les études de cas, qui engagent les chercheurs dans un cadre

réel social, doivent être plus appropriées pour la génération de connaissance interprétative.

(Orlikowski et Baroudi, 1991).

En résumé, la recherche positiviste est décrite à travers ces trois points :

- La formulation d’hypothèses, modèles ou les relations causales entre les construits ;

- L’utilisation des méthodes quantitatives qui testent des théories ou des hypothèses,

bien que ce ne soit pas toujours nécessaire ;

Page 144: thèse dauphine - nombreux documents chercheurs +

Chapitre4

141

- Les chercheurs sont objectifs et l’interprétation a une valeur libre.

Un exemple classique cité dans Hirschheim et Klein (1992) est celui de Dickson et al. (1977)

sur la discussion de Minnesota.

Cependant, les études interprétatives peuvent être observées par :

- L’évidence à partir de la perspective non-déterministe (libre volonté),

- L’engagement des chercheurs à examiner un cadre culturel et social spécifique,

- Une analyse basée sur les points de vue des participants (Orlikowski et Baroudi,

1991 ; Walsham, 1995).

Exemples d’études interprétatives qui intègrent ces attributs : Orlikowski (1993) et

Orlikowski & Robey (1991).

1.2. Classifications méthodologiques

Des études différentes ont été appliquées entre les chercheurs pour classifier la méthodologie

de recherche. Nous citons à titre d’exemple l’étude de Cash et Nunamaker (1989 ; 1990 ;

1991) qui comparent les méthodes de recherche qualitative aux méthodes de recherche

expérimentales et de questionnaire. Ils ont découvert qu’il existe 17 % de papiers qui incluent

dans leurs analyses utilisées des méthodes de recherche qualitatives.

Alavi et al. (1989) ont analysé des articles empiriques et non-empiriques. Ils ont trouvé que

les articles empiriques constituent uniquement 46.5% des publications dans une période de

1968 à 1988. De plus, ils ont divisé les études empiriques en 8 catégories : expérimentations

en laboratoires, expérimentation sur le terrain, l’étude du terrain, l’étude de cas, le

questionnaire, les instruments de développement en MSI, les descriptions ex-post et autres.

Ces catégories ont été détaillées dans le troisième chapitre au niveau des stratégies de

recherche inspirées par McGrath (1981).

Orlikowski et Baroudi (1991) ont examiné 155 articles dans quatre journaux majeurs (du nord

américain). Les catégories majeures trouvées dans leurs résultats sont : le questionnaire

(49.1%), expérimentations en laboratoires (27.1%), les études de cas (13.5%), les méthodes

mixtes (3.2%), le développement d’instruments (2.6%), l’analyse de protocole (1.3%), et la

recherche en action (0.6%).

Galliers & Land (1987) et Galliers (1991) ont crée une taxonomie pour les approches de la

recherche en SI en discutant dix modes : le théorème/la démonstration, les expériences de

Page 145: thèse dauphine - nombreux documents chercheurs +

Chapitre4

142

laboratoire, expérimentation sur le terrain, l’étude de cas, le questionnaire, la prévision et la

recherche sur le futur, la simulation et jeux du hasard / jeux de rôles, le

subjectif/l’argumentatif, le descriptif/l’interprétatif, et la recherche d’action.

L’un des examens le plus récent est fait par Farhoomand et Drury (1999) dans lequel les

études de méthodologie sont classées comme suit : le non-empirique (39%), le questionnaire

(32%), l’étude de cas (17%), expérimentation en laboratoires (10%) et expérimentation sur le

terrain (2%).

A travers ces différentes taxonomies nous notons ces comparaisons : l’empirique versus le

non-empirique (Alavi et al., 1989) et le quantitatif versus le qualitatif (Cash et Nunamaker,

1989). L’examen détaillé de l’architecture de la recherche apparaît ambigu. C’est le cas de

Galliers (1991) qui intègre plus de méthodologies de recherche que les autres (la prévision et

la recherche sur le futur, la simulation et jeux du hasard/jeux de rôles, le théorème/la

démonstration) en négligeant la communauté du SI. En plus, Alavi et al. (1989) fait la

distinction entre l’étude de cas et l’étude du terrain, cette distinction n’est pas bien articulée.

La plupart des études de cas sont conduites sur le terrain ; donc l’essai de séparer l’étude du

terrain de l’étude de cas apparaît non nécessaire.

La classification méthodologique de Hirschheim et Chen (2004) suit principalement celle de

Orlikowski et Baroudi (1991) pour deux raisons :

- La première raison est que Orlikowski et Baroudi (1991) se sont intéressés non

seulement à la méthodologie mais aussi ils ont pris une tendance paradigmatique.

Donc, pour le même objectif, les deux études peuvent fournir une comparaison

meilleure si la même classification est utilisée.

- La deuxième raison est que leur échantillon est collecté entre 1985 et 1991 auprès de

quatre recherches américaines majeures, cependant la recherche de Hirschheim et

Chen est réalisée entre 1991 et 2001 auprès de huit journaux majeurs. Une bonne

réflexion peut être dégagée si la même classification est utilisée, afin de montrer la

progression des champs de recherche.

Cependant, trois catégories de Orlikowski et Baroudi (1991) ont été modifiées par Hirschheim

et Chen (2004) pour ces trois raisons :

- La méthode mixte n’est pas considérée comme une catégorie claire dans leur liste

(Orlikowski et Baroudi, 1991) ; Hirschheim et Chen comparent la méthode mixte

avec les méthodes quantitatives et qualitatives. Les articles qui utilisent plus d’une

Page 146: thèse dauphine - nombreux documents chercheurs +

Chapitre4

143

architecture de recherche (exemple, expérimentation en laboratoires et l’étude de

cas) sont comptés dans chaque catégorie et seront considérés comme une méthode

mixte.

- L’analyse du protocole et le développement de l’instrument se sont orientés plus

vers les praticiens. C’est pour cela, qu’elles ne font pas partie des centres d’intérêts

de Hirschheim et Chen (2004) et qu’ils placent ces études sous la rubrique « autres ».

- Hirschheim et Chen (2004) distinguent entre « l’architecture de mesures répétées »,

et «inter-sectoriels, séquences multiples ». Cependant l’architecture de mesure

répétée implique des occasions multiples. Son objectif est de comprendre le

changement d’un phénomène dans le temps passé, ce qui rend le croisement de

sections ou les occasions multiples plus dynamiques.

2. Procédure de la recherche

2.1. Représentations paradigmatiques

Goles et Hirshheim (2000) ont indiqué, « Bien que la proportion des articles positivistes /

non-positivistes varie d’une étude à l’autre, l’accord incontestable est que le positivisme

domine la recherche en systèmes d’information » (en anglais : « Although the proportion of

positivist to non-positivist articles varies somewhat from study to study, the indisputable

consensus is that positivism dominates information systems research » (p. 254).

Hirschheim et Klein (1992) expliquent que des exemples de recherches en systèmes

d’information dans le structuralisme radicale et le néo-humanisme (humanisme radicale) sont

rarement trouvés. L’attention est portée dans la recherche en SI, en se référant à Walsham

(1995), à l’approche interprétative.

2.1.1. Positivisme

Les critères de classification des articles positivistes sont les hypothèses citées, les

propositions, la formation d’un modèle, des variables de mesures quantifiables, les inférences

tirées (dessinées) des échantillons aux populations (Orlikowski et Baroudi, 1991), tous ces

critères démontrent la croyance que « les données objectives peuvent être collectées pour

prévoir la relation à travers les facteurs et pour tester les hypothèses ou les théories »

(Walsham, 1995).

Page 147: thèse dauphine - nombreux documents chercheurs +

Chapitre4

144

2.1.2. Interprétatif

Les critères de sélection des articles interprétatifs sont triplés. Le premier critère, le plus

important est que les articles ne doivent impliquer aucun indicateur positiviste décrit dessus,

que les chercheurs imposent dans les perspectives non-déterministes.

Le deuxième critère est que les perspectives de participants sont prises comme des sources

primaires de compréhension et d’investigation du phénomène. Quant au troisième critère, les

phénomènes sont examinés avec le respect des circonstances contextuelles et culturelles

(Walsham, 1995).

2.2. Représentations méthodologiques

L’analyse de la méthodologie de recherche de Hirschheim et Chen (2004) se focalise sur ces

aires : empirique versus non-empirique ; quantitatif versus qualitatif et l’inter-sectoriel (cross-

sectional) versus longitudinal.

2.2.1. Empirique versus non-empirique

Bien que les études empiriques se basent sur les observations et les données, les études non-

empiriques développent des idées et des concepts (Alavi et al. 1989). Ces deux approches

participent à différentes contributions à la communauté de recherche.

Les études non-empiriques aident à développer des concepts et construire des théories. Les

études empiriques fournissent une évidence concrète pour tester les théories. Comme cette

discipline est devenue plus mature, nous pouvons nous attendre au test d’une théorie pour

surmonter les efforts de construction d’une théorie. Donc, une comparaison entre les études

empiriques et non-empiriques peut servir comme une indication significative au progrès fait

dans ce domaine.

Le critère de classification, utilisé par Hirschheim et Chen (2004), des études empiriques et

non-empiriques est déterminé par les observations ou les données réelles obtenues dans les

articles, qui peuvent être collectées à travers les approches quantitatives, qualitatives ou

mixtes, intégrant les données archivées44.

44 Dans le cas où ces auteurs localisent des articles avec des données et des observations dans la catégorie de non-empirique. Dans d’autres cas, les articles sont purement descriptifs sans les questions de recherche testées, les professionnels sont orientés vers le développement des systèmes ou les analyses et la simulation mathématique.

Page 148: thèse dauphine - nombreux documents chercheurs +

Chapitre4

145

2.2.2. Quantitatif versus qualitatif

Les méthodes de recherche qualitatives, comme par exemple l’étude de cas, ont attiré une

grande attention (Benbasat et al., 1987 ; Lee, 1989 ; Klein et al., 1991 ; Trauth et O’Conner,

1991 ; Visala, 1991 ; Walsham, 1995 ; Darke et al., 1998 ; Silverman, 1998 ; Klein et Myers,

1999 ; Markus et Lee, 1999), la comparaison entre les méthodes de recherche qualitatives et

quantitatives dans la recherche en SI a été traitée insuffisamment.

Cependant, la première approche utilise typiquement des analyses numériques pour illustrer la

relation des facteurs dans le phénomène étudié, la deuxième approche développe la

description et la compréhension de la situation après les facteurs. Pour faire une comparaison

significative, les deux méthodes peuvent être classées dans les études empiriques.

Comme les études non-empiriques impliquent typiquement la description et l’argumentation

des théories et des cadres théoriques, elles peuvent être classées comme la méthode de

recherche qualitative.

Il est possible que la recherche utilise les deux méthodes qualitatives et quantitatives dans

différents stades de l’étude. Dans certains cas, elles seront classées dans la méthode de

recherche mixte.

2.2.3. Inter-sectoriel versus longitudinal

Comme il est indiqué avant, contrairement à Orlikowski et Baroudi (1991), la classification de

Hirschheim et Chen (2004) fait la distinction entre « l’architecture de mesures répétées » et

« les séquences multiples ». Quatre catégories sont désignées : longitudinal, architecture de

mesure répétée, les occasions multiples et l’inter-sectoriel. Chacune de ces catégories requiert

différents efforts de recherche et de temps d’engagement.

Hirschheim et Chen (2004) définissent le longitudinal comme une recherche qui évolue dans

une période interrompue de temps et focalisé sur des processus. L’inter-sectoriel, est une

recherche qui collecte des données à travers une occasion à une période de temps particulière

(Orlikowski et Baroudi,1991).

Les séquences multiples sont comme l’inter-sectoriel en nature, mais elles impliquent plus

qu’une seule période de collecte de données ou cadres, qui peuvent avoir différentes

expérimentations, traitements ou sujets…

Page 149: thèse dauphine - nombreux documents chercheurs +

Chapitre4

146

Les architectures de mesures répétées sont celles qui conduisent les études sur des périodes de

temps variées pour examiner comment un phénomène pourra évoluer sur des périodes de

temps variées.

En résumé, la science conventionnelle suggère que les journaux aux Etats Unis sont plus

orientés vers le positivisme et utilisent plus les méthodes quantitatives, cependant les journaux

européens tendent vers la recherche interprétativiste en utilisant les méthodes qualitatives.

Recherche positiviste

Etude quantitative

Recherche interprétativiste

Etude qualitative

Etude mixte

Journaux des Etats Unis

58% 46% 7% 13% 6%

Journaux Européens

23% 14% 12% 17% 4%

Tableau 17. Les Journaux aux Etats Unis versus les Journaux Européens : Positivisme versus Interprétatif. (Hirschheim et Chen, 2004)

D’après ce tableau, nous notons la dominance du positivisme dans la recherche en SI,

cependant l’interprétativisme va progresser dans ce domaine (Monod, 2002).

D’après cette architecture des recherches en MSI, notre positionnement épistémologique se

situe dans une logique positiviste. Cette dernière cherche à construire un modèle théorique

pour tester l’impact de l’utilisation des Agents Intelligents sur l’utilité perçue des utilisateurs

et sur le processus de la prise de décision.

Nous avons retenu une approche de base positiviste (questionnaire structuré comportant des

questions fermées) tout en offrant aux personnes interrogées la possibilité d’exprimer leurs

points de vue dans le cadre des questions ouvertes.

L’architecture de notre recherche est présentée dans le tableau 18 :

Question principale : Etudier l’impact de l’utilisation des AI sur la veille stratégique à travers l’évaluation de la perception de l’utilisateur vis à vis cette technologie.

Questions de la recherche

Questions secondaires :

- Comment peut-on faire le choix enre les différents agents intelligents pour collecter, traiter et diffuser les informations ?

- Quelles sont les caractéristiques de l’utilisation des AI et comment sont-ils intégrés dans le processus de veille stratégique ?

- Quel est l’impact de la perception des AI sur l’intensité d’utilisation ?

Choix épistémologiques

Deux caractères dominent dans le positivisme d’Auguste Comte : La science ne s’occupe que des phénomènes et non pas de la « nature

Page 150: thèse dauphine - nombreux documents chercheurs +

Chapitre4

147

des choses » ; La science ne connaît que des lois et ignore le « mode de production des phénomènes », c’est à dire la causalité45.

Positionnement positiviste

Le positivisme d’Auguste Comte et la vanité des limites stables introduites entre les phénomènes et les réalités sous-jacentes reconstruites déductivement pour les expliquer46.

Choix méthodologiques

Deux phases : une phase d’exploration du terrain basée sur une étude qualitative ; une phase de collecte de données basée sur une étude quantitative.

Entretiens semi-structurés

Explorer le terrain pour chercher une étude de cas. Cet objectif a échoué.

Enquête quantitative En nous appuyant sur la revue de littérature de MSI, nous avons construit un questionnaire envoyé à un grand nombre d’entreprises. L’échantillon est formé par 156 utilisateurs (PDG, DG, analystes, concepteurs et utilisateurs), sélectionnés dans l’annuaire de pouvoir47 et des annuaires électroniques48…et appartenant à des entreprises très diversifiées tant par leur secteur d’activité que par leur chiffre d’affaire. Tableau 18. L’architecture de cette étude

Notre étude s’est déroulée en deux phases principales qui regroupent la problématique.

Chaque phase contient sa propre technique de recueil de données.

Pendant la première phase :

Des entretiens semi-structurés ont été formulés dans le but de trouver une étude de cas pour

accéder au terrain. Malheureusement, ces entretiens n’ont pas permis d’atteindre l’objectif. La

chronologie des entretiens effectués auprès des responsables de veille et des utilisateurs

d’agents intelligents montre qu’en une année nous n’avons pu interviewer que cinq personnes

et un directeur l’année d’après. Vu cette difficulté de prospection de terrain, nous avons

décidé de construire un questionnaire et de lancer une enquête auprès des utilisateurs de la

technologie agents intelligents.

45 Encyclopédie de la Pléiade, Logique et connaissance scientifique, Volume publié sous la direction de Jean Piaget, 1967, Editions Gallimard. 46 Idem. 47 Cet annuaire se trouve à la bibliothèque d’étude de l’Université Dauphine. Il présente les principaux dirigeants des 5000 premières entreprises françaises, réparties en 18 secteurs d’activités. Le choix de nos secteurs dépend du domaine d’application des agents intelligents. 48 L’adresse du site est : http://www.info-décideurs.com (et autres adresses électroniques consultés)

Page 151: thèse dauphine - nombreux documents chercheurs +

Chapitre4

148

Pendant la deuxième phase :

Cette phase consiste à développer un instrument de mesure de l’utilité perçue de la

technologie des agents intelligents compte tenu de son adéquation avec la tâche des

utilisateurs et le contexte de son utilisation.

Section 2 : Construction de l’instrument de mesure

L’examen de la perception qu’ont les individus de l’usage qu’ils font des technologies de

l’information a permis de dégager deux conclusions importantes :

- La perception par les individus de leur capacité à utiliser les technologies de

l’information influent sur les bénéfices attendus et sur l’efficacité perçue de leur

usage (Compeau, Higgins et Huff, 1999)

- L’utilisation des technologies de l’information améliore la perception individuelle

de la capacité à les utiliser.

Dans ce cadre, pour tester l’utilité d’un système intelligent, il est intéressant de reproduire la

réalité des comportements des utilisateurs. Pour cela, la recherche a nécessité un cadre

expérimental dans la mesure où le contexte d’utilisation a dû faire l’objet d’un contrôle précis.

De plus, il s’agit de tester les effets d’un système pionnier (système qui crée une nouvelle

technologie de traitement de l’information) sur le processus de la prise décision, notamment

en terme de choix et d’utilisation de cette technologie.

1. Opérationnalisation des variables

Pour tester les hypothèses de la recherche, un questionnaire a été construit et a été administré

par deux spécialistes dans le domaine de la conception des Agents Intelligents. Ce

questionnaire49 est destiné à des Directeurs, Concepteurs et des Utilisateurs Experts/non-

Experts.

Après la collecte des données, une analyse factorielle sera utilisée dans le but de purifier les

items choisis dans le questionnaire.

49 Le questionnaire de notre étude est consulté en ligne sur ce site Web : http://www.darpmi.net/myrtille/QuestVFH.doc (Version HTML)

Page 152: thèse dauphine - nombreux documents chercheurs +

Chapitre4

149

Items I. Adéquation Technologie-Tâche (Goodhue and Thompson, 1995) 1. Qualité des données Actualisation des données Je ne parviens pas obtenir des données qui soient suffisamment actuelles

pour répondre à mes besoins Item 1

Les données sont suffisamment à jour pour répondre à mes besoins. Item 2 Exactitude des données Les données disponibles dans l’entreprise me permettent en grande partie de

mener mes tâches Item 3

Les agents intelligents que je peux utiliser ne repèrent pas des données qui me seraient très utiles dans mon travail

Item 4

Exactitude du niveau de détail Notre entreprise stocke des données à un niveau de détail approprié pour les

tâches de mon groupe. Item 5

Les données disponibles dans mon entreprise sont suffisamment détaillées. Item 6 2. Localisation Disponibilité des données Il est facile de trouver les données dont l’entreprise dispose sur un sujet

donné. Item 7

Il est aisé de localiser les données dont dispose notre entreprise sur un problème particulier, même dans le cas où je n’aie pas utilisé ces données auparavant.

Item 8

Sens exact des données Il est facile de découvrir la définition exacte du champ des données relatives

à mes tâches. Item 9

Dans les rapports ou systèmes que je suis amené à traiter, le sens exact des éléments de données est soit évident soit facile à déterminer.

Item 10

3. Autorisation Autorisation d’accés Les données qui me seraient utiles ne sont pas disponibles car je ne dispose

pas de la bonne autorisation. Item 11

L’obtention de l’autorisation d’accès aux données qui seraient utiles à mon travail prend du temps et est difficile.

Item 12

4. Compatibilité Compatibilité des données acquises Parfois je trouve que des données normalement équivalentes mais provenant

de deux sources différentes sont incohérentes. Item 13

Parfois il m’est difficile de comparer ou de consolider des données provenant de différentes sources car ces données sont définies de manières différentes.

Item 14

Lorsqu’il est nécessaire de comparer ou de consolider des données provenant de différentes sources, il peut y avoir des incohérences imprévues ou difficiles à surmonter.

Item 15

5. Pertinence des systèmes Dépendance d’accés aux systèmes intelligents

Page 153: thèse dauphine - nombreux documents chercheurs +

Chapitre4

150

Je suis assuré(e) que les Agents Intelligents sont actualisés et disponibles lorsque j’en ai besoin.

Item 16

Les agents intelligents que j’utilise sont sujets à des problèmes inattendus qui les rendent plus difficiles à utiliser pour mon travail.

Item 17

Les agents intelligents sont sujets à des problèmes et à des arrêts fréquents. Item 18 6. Relation avec l’équipe SI Intérêt des AI Les AI traitent les problèmes de gestion de mon groupe de manière sérieuse. Item 19 Les AI ont un réel intérêt pour la résolution de mes problèmes de gestion. Item 20 Flexibilité des AI Les AI prennent parfois trop de temps pour communiquer avec moi par

rapport à mes requêtes. Item 21

Je sais généralement ce qu’il advient de mes requêtes auprès des AI. Item 22 Lorsque je lance une requête pour un service ou une assistance,

généralement les AI répondent à mes demandes dans un délai raisonnable. Item 23

Conseils des AI Compte tenu de mon expérience antérieure, j’utiliserais dans le futur les

conseils d’agents intelligents en cas de besoin. Item 24

Je suis satisfait(e) du niveau du conseil technique et de gestion que je reçois des AI.

Item 25

II. Mesures des caractéristiques Tâche/Travail Aspect non-routinier Je suis fréquemment amené à traiter des problèmes mal définis. Item 26 Je suis fréquemment amené à traiter des problèmes de gestion non-

routiniers. Item 27

Interdépendence des tâches Les problèmes de gestion que je traite impliquent en général plus d’une

fonction de l’organisation. Item 28

Les problèmes que je traite impliquent souvent plusieurs services fonctionnels.

Item 29

III. Mesures des caractéristiques de la technologie (Davis, 1989) Système utilisé Je sais ce que sont les agents intelligents. Item 30 Facilité d’utilisation des Agents Intelligents (AI) Je trouve que les AI sont faciles à utiliser. Item 31 Il serait facile pour moi de devenir compétent(e) dans l’utilisation des AI. Item 32 Apprendre à manipuler des AI a été facile pour moi. Item 33 Je trouve qu’il est aisé d’interagir avec les AI. Item 34 Mes interactions avec les AI sont claires et compréhensibles. Item 35 Je trouve qu’il est facile d’interagir avec les AI. Item 36 IV. Utilité perçue des Agents Intelligents (AI) (Davis, 1989) Degré de satisfaction des AI L’information fournie par les AI. Item 37 L’interface entre les AI et les utilisateurs. Item 38 Le processus d’utilisation des AI. Item 39 La capacité des AI à être utiles dans le futur. Item 40 Les AI dans leur ensemble. Item 41 Fonctionnalités des AI Rechercher des informations sur les consommateurs. Item 51

Page 154: thèse dauphine - nombreux documents chercheurs +

Chapitre4

151

Stocker, traiter et extraire une grande quantité d’informations. Item 52 Gagner du temps pour la prise de décision grâce à leur flexibilité. Item 53 Résoudre les problèmes sémantiques et syntactiques. Item 54 Impact sur la productivité L’utilisation des AI dans mon travail me permet d’accomplir mes tâches

plus rapidement. Item 42

L’utilisation des AI améliore la performance dans mon travail. Item 43 L’utilisation des AI dans mon travail améliore ma productivité. Item 44 Impact sur la qualité de travail L’utilisation des AI augmente mon efficacité dans mon travail. Item 45 L’utilisation des AI rend mon travail plus facile. Item 46 Les AI sont utiles dans mon travail. Item 47 V. Intention d’utilisation des AI dans le processus de prise de décision J’utiliserai des AI pour identifier des problèmes. Item 48 J’utiliserai des AI pour évaluer des solutions. Item 49 J’utiliserai des AI pour sélectionner des solutions. Item 50

Sexe

Age

Quelle langue parlez-vous à votre domicile ?

Avez-vous déjà recherché des informations sur les AI ? Item 63

Combien de fois avez-vous eu recours à la technologie des AI ?

Item 55

Pouvez-vous me citer quelques Agents Intelligents ?

Quel est votre Département / Service d’appartenance ?

Vous êtes :

Précisez s’il vous plaît votre tâche, si vous cochez Autre :__________________________________________________________________________________________________________________

- Directeur

- Concepteur

- Utilisateur

- Autre

VI. Degré d’utilisation des AI

Non Oui

Toujours Souvent Parfois Rarement Jamais

M F

Page 155: thèse dauphine - nombreux documents chercheurs +

Chapitre4

152

Combien de temps par jour consacrez-vous en moyenne à l’utilisation des AI ? (Exprimez-le en total d’heures et/ou de minutes d’utilisation par jour).

Item 57

Quelle quantité maximale de temps consacrez-vous par jour à l’utilisation des AI ? (Exprimez-la en total d’heures et/ou de minutes d’utilisation par jour).

Item 58

Quelle quantité minimale de temps consacrez-vous à l’utilisation des AI ? (Exprimez-la en total d’heures et/ou de minutes d’utilisation par jour).

Item 59

2. Déroulement de l’enquête

La préparation du matériel de l’enquête a été l’étape la plus délicate et la plus importante de

cette recherche. Ainsi, une étude quantitative a été mise en place pour répondre à cette

exigence.

Lors du passage à l’étude quantitative, la diffusion du questionnaire vers tout type

d’entreprise nous a permis de découvrir les champs d’application des agents intelligents…

Lors du premier envoi du questionnaire, une lettre de confidentialité a été signée par le Pr.

Kalika et a été envoyée en pièce jointe aux questions (Voir annexe n°1_CH4).

Une lettre a été envoyée comme première page du questionnaire pour définir le sujet de thèse,

ses objectifs et le positionnement du chercheur (Voir annexe n°2_CH4). La lettre

électronique envoyée aux personnes interrogées est présentée dans l’annexe n°3_CH4. Deux

relances ont été effectuées auprès des personnes interrogées sous forme de lettres

électroniques (Voir annexes n°4 et n°5_CH4) au bout de quinze jours du premier envoi. Le

fait de ne pas avoir des réponses incite le chercheur à fouiller de nouvelles adresses

électroniques pour avancer la collecte des données. Une lettre de remerciement a été envoyé à

chaque répondant lors de la réception du questionnaire rempli (Voir annexe n°6_CH4).

Le refus des interrogés à répondre à notre questionnaire a été justifié par certains d’entre eux,

quelques réponses négatives de leur part ont été récapitulées dans l’annexe n°6Bis_CH4.

Nous avons reçu des réponses négatives de la part des entreprises de la télécommunication, le

personnel n’étant pas autorisé à répondre à ce genre d’enquêtes. Ainsi, une réponse négative

de la part d’une entreprise aéronautique, pour des raisons de confidentialité malgré que le

directeur était conscient de la pertinence des informations fournies par le questionnaire.

D’autres réponses positives ont été reçues et présentées dans l’annexe n°6Bis_CH4.

Page 156: thèse dauphine - nombreux documents chercheurs +

Chapitre4

153

Nous avons cherché les personnes interrogées formant cet échantillon grâce à « l’annuaire du

Pouvoir » 2003, les annuaires électroniques et la visite de deux forums50. Nous avons

rassemblé les adresses des participants dans un carnet d’adresse dans lequel nous avons noté

les coordonnées de la personne contactée pour faciliter leur relance (son téléphone, son

adresse postale et son adresse mail).

Le questionnaire de notre étude a été administré par courrier électronique sur 9 mois (de

Juillet 2004 - Mars 2005). Nous avons contacté 750 entreprises (en moyenne 4 personnes ont

été contactées par entreprise) et nous avons collecté 15651 réponses. Il a été envoyé aux

entreprises appartenant à différents secteurs d’activité (Industrie, automobile, commerce et

distribution, banque et institutions financières, etc.) et aux boites de conseil de services et de

distribution informatique.

50 Ces deux forums sont : EQUIPMAG’04 et la GEIDE (Fin 2004). 51 Le Trente et unième répondant a été éliminé de l’échantillon lors de la classification des utilisateurs des AI. Lors du traitement statistique l’échantillon est composé de 155 répondants.

Page 157: thèse dauphine - nombreux documents chercheurs +

Chapitre4

154

Conclusion

Dans ce chapitre nous avons essayé de présenter, en premier lieu, l’architecture de la

recherche en SI dans le but de montrer notre positionnement épistémologique et

méthodologique de cette étude. En deuxième lieu, la collecte de données par le biais de

soumission d’un questionnaire auprès d’utilisateurs d’AI appartenant à différents

départements faisant partie de grandes entreprises.

Le questionnaire est construit dans le but d’opérationnaliser les variables du modèle théorique

et de chercher le domaine d’application de la technologie des agents intelligents, ainsi que le

profil des utilisateurs qui peuvent répondre à cette enquête diffusée.

Les deux prochains chapitres seront consacrés à la présentation de trois analyses de données à

savoir : analyses descriptive, exploratoire et confirmatoire.

Page 158: thèse dauphine - nombreux documents chercheurs +

CHAPITRE 5

Etude des analyses descriptive et

exploratoire

“The right men at the right place”, ……versus

“The right agent (architecture) to do the right thing”,

Müller J. P., In Singh M.P. and Rao A.S., eds., Intelligent Agent V, Springer-Verlag:Berlin, Germany, 1999, p.211.

Page 159: thèse dauphine - nombreux documents chercheurs +

Chapitre5

156

Introduction

La première section de ce chapitre est consacrée à la description des caractéristiques de la

population.

La deuxième section a pour objet d’aborder les modalités de traitement de données utilisées

dans la phase exploratoire.

Section 1 : Analyse descriptive des données

Dans cette section nous présentons les caractéristiques de la population ainsi que la réalisation

de la collecte des données par le biais du courrier électronique.

Nous avons contacté des directeurs de SI, de finance et de marketing, des utilisateurs

(responsables commerciaux, ingénieurs, consultants, électroniciens, informaticiens…), des

concepteurs et autres répondants qui n’ont pas précisé leur fonction. Nous présentons la

répartition de l’échantillon par rapport aux secteurs d’activité et aux fonctions occupées des

participants. Ainsi qu’une répartition donnée en fonction des départements auxquels

appartiennent ces participants.

Secteurs d’activité des entreprises Fréquence Pourcentage Conseil, Ingénierie et formation 29 18,7 Commerce et distribution 6 3,9 Informatique, Bureautique, Réseaux et Télécoms 49 31,6 Matériel électrique, Electronique 46 29,7 Banques, Sociétés financières 14 9 Industrie, Automobile, CCI 11 7,1 Total 155 100,0

Tableau 19. Répartition des participants par rapport aux secteurs d’activités des entreprises

Ces personnes opèrent dans des grandes entreprises appartenant à ces secteurs d’activité :

- Le conseil, l’ingénierie et la formation (18,7 %)

- Le commerce et la distribution (3,9 %)

- L’informatique, le bureautique, les réseaux et télécoms (31,6 %)

- Le matériel électrique, l’électronique (29,7 %)

- Les banques et les sociétés financières (9 %)

- Et l’industrie, l’automobile, la CCI (7,1 %).

Page 160: thèse dauphine - nombreux documents chercheurs +

Chapitre5

157

Les départements représentés sont :

- Systèmes d’Information (9%)

- Marketing et Management (14,8 %)

- Finance et Gestion (8,4 %)

- Informatique (30,3 %)

- Recherche et Développement (36,7 %).

Ces personnes ont précisé leur statut en fonction de l’utilisation de la technologie des AI : les

directeurs (18,7%), les concepteurs (16,8%), les utilisateurs (45,8%) et les analystes (15,5%).

Départements Fréquence Pourcentage Systèmes d’information 14 9 Marketing et Management 23 14,8 Finance et gestion 13 8,4 Informatique 47 30,32 Recherche et Développement 57 36,77 Non renseigné 1 0,6 Total 155 100,0

Tableau 20. Répartition des participants par rapport au département

Fonction Fréquence Pourcentage Directeur 29 18,7 Concepteur 26 16,8 Utilisateur 71 45,8 Analyste 24 15,5 Non renseigné 5 3,2 Total 155 100,0

Tableau 21. Répartition des participants par rapport à leur fonction

Enfin, la population de l’échantillon utilisée pour le traitement statistique des données

correspond à la population totale de cette enquête, soit 155 utilisateurs des AI. Elle est de sexe

masculin à 78,1% et féminin à 21,9%. L’âge moyen des participants est de 35 ans, nous

présentons la répartition de ses caractéristiques sous deux tableaux (25 et 26):

Sexe Fréquence Pourcentage Masculin 121 78,1 Féminin 34 21,9 Total 155 100,0

Tableau 22. Répartition des participants par rapport au sexe

Page 161: thèse dauphine - nombreux documents chercheurs +

Chapitre5

158

Age Fréquence Pourcentage 19-30 67 43,20 31-40 43 27,70 41-50 31 20,00 51-60 14 9,00 Total 155 100,0

Tableau 23. Répartition des participants par rapport à l’âge

L’outil technologique utilisé dans cette étude est l’agent intelligent. Dans le questionnaire

nous avons laissé le choix au participant de nous préciser l’outil utilisé par lui-même comme

étant un agent intelligent. Nous avons proposé une classification de ces agents selon leurs

fonctions. Les agents intelligents sont :

- Des outils de collecte (méta-moteurs, crawlers, Cybion Eye…) ;

- Des outils de tri et d’aide à l’analyse (technologie d’analyse statistique, analyse

sémantique et/ou syntaxique, analyse pour représentation cartographique,…) ;

- Des outils de diffusion (newsletters maker, portails, logiciels push…).

Les deux tiers de participants ont cité le nom des agents intelligents utilisé dans le processus

de traitement de l’information52.

52 Les AI sont classifiés avec leurs utilisateurs lors de la phase de la classification de l’échantillon.

Page 162: thèse dauphine - nombreux documents chercheurs +

Chapitre5

159

Section 2 : Analyse Exploratoire des données

Dans cette section nous présentons une méthodologie d’analyse exploratoire en trois phases :

analyse factorielle, classification des utilisateurs des AI et analyse de variance. Cette dernière

méthode a été réalisée afin de montrer le lien entre les variables nominales et les variables

continues du modèle de l’Adéquation Technologie-Tâche (1er modèle) et du modèle de

l’acceptation d’une technologie (2ème modèle).

1. Analyse en composantes principales

Pour tester la validité des construits, nous commençons par une Analyse en Composantes

Principales (ACP) sans rotation afin de :

- Visualiser et analyser les corrélations entre les variables ;

- Eliminer certaines variables redondantes ou non pertinentes ;

- Construire un ensemble de facteurs non corrélés réutilisables par d’autres méthodes

lors de la phase confirmative.

Les résultats de ce traitement sont présentés dans ce qui va suivre.

1.1. ACP avec pour variables actives du premier modèle « Adéquation technologie-Tâche »

Le tableau 24 présente les résultats du traitement des questions concernant le premier modèle

théorique. Le construit « Adéquation Technologie-Tâche » est multidimensionnel, cette

analyse factorielle a permis de restituer plusieurs facteurs correspondant à diverses facettes du

concept initial.

Cette ACP a amené de révéler que la première partie du questionnaire évaluait les principaux

aspects du construit de « l’Adéquation Technologie-Tâche ». Ainsi, pour ce construit ont été

mis en évidence :

- La qualité et la localisation des données : Item 3 ; Item 5 ; Item 6 ; Item 7 ; Item 8 ;

Item 9 et Item10. (1/3 de la variance totale)

- La qualité du service offert par les AI : Item 20 ; Item 21 ; Item 22 ; Item 23 et Item

25.

Page 163: thèse dauphine - nombreux documents chercheurs +

Chapitre5

160

Le premier axe, avec 33 % de la variance totale, est fortement lié à toutes les variables qui

mesurent l’adéquation technologie-tâche. Le deuxième axe explique 11 % de la variance

totale, nous avons pris seulement en compte le premier axe. Cela s’explique par les faibles

corrélations entre les items du premier modèle. Nous avons retenu les items dont la

coordonnée en valeur absolue est supérieure à 0,6.

Libellé de la variable Axe 1 Axe 2 ITEM1 -0,20 0,36 ITEM2 0,57 -0,18 ITEM3 0,74 -0,20 ITEM4 -0,19 0,39 ITEM5 0,68 -0,19 ITEM6 0,67 -0,35 ITEM7 0,77 -0,33 ITEM8 0,65 -0,48 ITEM9 0,76 -0,24 ITEM10 0,78 -0,25 ITEM11 0,67 0,45 ITEM12 0,19 0,57 ITEM13 0,37 0,53 ITEM14 0,39 0,38 ITEM15 0,42 0,50 ITEM16 0,65 -0,30 ITEM17 0,55 0,39 ITEM18 0,26 0,41 ITEM19 0,38 0,30 ITEM20 0,65 0,04 ITEM21 0,71 0,43 ITEM22 0,72 0,04 ITEM23 0,74 -0,11 ITEM24 0,48 -0,11 ITEM25 0,67 -0,12 ITEM26 0,30 0,33 ITEM27 0,26 0,22 ITEM28 0,45 0,16 ITEM29 0,74 0,16 Valeur Propre 9,53 3,11 Pourcentage de l’inertie 32,87 10,74

Tableau 24. ACP des variables du premier modèle « Adéquation Technologie-Tâche »53

Les valeurs-tests des modalités illustratives54 sur le premier axe montrent qu’il est caractérisé

par les deux départements « informatiques » et « R&D », par les « utilisateurs » et les 53 Voir les résultats de l’ACP détaillés dans l’annexe n°7. 1. 1.

Page 164: thèse dauphine - nombreux documents chercheurs +

Chapitre5

161

« analystes » et le secteur « Matériel électrique et électronique » (Valeurs-tests positives). Ces

caractéristiques s’opposent aux participants faisant partie de la fonction « direction » et des

secteurs de « conseil », de « banques » et d’« industries » (valeurs-tests négatives).

1.2. ACP avec pour variables actives du deuxième modèle de l’« Acceptation de la technologie des AI »

Une ACP a été réalisée avec pour variables actives du deuxième modèle. La structure

factorielle révèle l’ensemble des facteurs qui sous-tendent un construit avec des items

associés. Le tableau 25 montre les indicateurs de mesure dégagés suite au traitement :

- La facilité d’utilisation des AI : Item 31 ; Item 32 ; Item 35 et Item 36.

- La satisfaction des utilisateurs des AI : Item 38 ; Item 39 ; Item 40 et Item 41.

- L’utilité perçue des AI sur la productivité et la qualité du travail : Item 42 ; Item 43 ;

Item 45 ; Item 46 et Item 47.

- L’intention d’utiliser les AI dans le processus de prise de décision : Item 48 et Item

49.

- Les fonctionnalités des AI : Item 51 ; Item 52 et Item 54.

- L’intensité d’utilisation des AI : Item 57 et Item 58.

Le premier axe explique plus de 40 % de la variance totale, et le deuxième axe explique plus

de 10 %. Ce deuxième axe représente deux indicateurs de mesure (Item 33, Item34) relatifs à

la facilité d’utilisation des AI et fortement corrélés négativement au deuxième axe.

Libellé de la variable Axe 1 Axe 2 ITEM30 0,73 0,16 ITEM31 0,74 -0,40 ITEM32 0,77 -0,13 ITEM33 0,13 -0,76 ITEM34 0,39 -0,78 ITEM35 0,70 -0,44 ITEM36 0,72 -0,51 ITEM37 0,62 -0,12 ITEM38 0,72 -0,21 ITEM39 0,74 -0,19 ITEM40 0,69 0,14 ITEM41 0,80 0,20

54 Les valeurs-tests des modalités illustratives, relatives au premier modèle, sont présentées dans l’annexe 7.1.2.

Page 165: thèse dauphine - nombreux documents chercheurs +

Chapitre5

162

ITEM42 0,83 0,09 ITEM43 0,86 0,08 ITEM44 0,55 -0,01 ITEM45 0,79 0,04 ITEM46 0,61 -0,11 ITEM47 0,75 0,02 ITEM48 0,58 0,10 ITEM49 0,60 -0,01 ITEM50 0,35 -0,19 ITEM51 0,63 0,37 ITEM52 0,57 0,29 ITEM53 0,36 0,15 ITEM54 0,62 0,31 ITEM55 -0,04 -0,30 ITEM57 0,58 0,45 ITEM58 0,61 0,43 ITEM59 0,41 0,42 Valeur Propre 11,63 3,05 Pourcentage de l’Inertie 40,12 10,55

Tableau 25. ACP des variables du deuxième modèle « Acceptation d’une Technologie» 55

Les valeurs-tests des modalités illustratives56 du deuxième modèle opposent sur le premier axe

le département « R&D », les « analystes » et le secteur « Matériel électrique et électronique »

(Valeurs-tests positives) aux départements « Système d’information », « Marketing »,

« Finance », la fonction de « direction », les secteurs de « conseil », de « commerce », de

« banque » et d’« industrie » (Valeurs-tests négatives).

Par ailleurs, notons que les limites de l’ACP viennent du fait que c’est une méthode de

projection, qui entraîne une perte d’information. Pour compléter l’étude de la validité et la

fiabilité des items, nous avons fait appel au logiciel « PLS57-Graph » qui sera utilisé et

présenté dans le chapitre 6.

Concernant les logiciels maîtrisés, j’ai fait des formations durant des séminaires organisés au

sein de notre centre de recherche CREPA avec Messieurs A. Schwarz et E. Compoy. J’ai

suivi une autre formation à Toulouse organisée par M. P. Russel. Ces formations m’ont

permis d’utiliser ces logiciels (SPSS, PLS, AMOS) dans mon travail de thèse lors du

55 Voir les résultats de l’ACP détaillés dans l’annexe n°7. 2. 1. 56 Les valeurs-tests des modalités illustratives, liées au premier modèle, sont présentées dans l’annexe 7.2.2. 57 Partial Least Squares.

Page 166: thèse dauphine - nombreux documents chercheurs +

Chapitre5

163

traitement statistique de mes données. La validation des résultats finaux de cette recherche est

réalisée en collaboration avec M. B. Goldfarb.

2. Classification

Devant l’absence de théorie il est difficile de déterminer la fréquence d’utilisation de l’agent

en fonction de sa classe dans l’application, la méthode de classification a été réalisée à la suite

des deux ACP : avec les variables du premier modèle de « l’Adéquation Technologie-Tâche »

et avec les variables du deuxième modèle de « l’Acceptation d’une technologie ».

2.1. Groupe de variables actives se référant au modèle théorique de l’Adéquation Technologie-Tâche

2.1.1. Répartition des utilisateurs dans chaque classe

La classification58 nous a amené à retenir cinq classes d’utilisateurs de la technologie des AI

au sein de notre échantillon concerné.

Classes Nombre d’utilisateurs Variables nominales représentatives à chaque classe59

1 26 Département : Marketing & Management Secteur : Banques, Sociétés financières

2 36 Département : Systèmes d’Information Secteur : Conseil, Ingénierie, Formation..

3 15 Département : Informatique 4 34 Département : Informatique

Secteur : Informatique, Bureautique, Réseaux et Télécoms 5 44 Département : R&D

Secteur : Matériel électrique, Electronique Langue : Français

Tableau 26.Classification des utilisateurs des AI

Pour caractériser une classe par les variables nominales, nous observons les variables qui ont

une valeur test supérieure à 2 en valeur absolue. Le tableau 26 présente les variables qui

caractérisent ces cinq classes retenues.

58 Pour réaliser la classification nous avons utilisé SPAD. Nous remercions Madame Pardoux pour son aide précieuse et son suivi continu durant cette phase exploratoire. 59 Voir l’annexe 8. 1. 1. : Caractérisation par les modalités des classes de la partition.

Page 167: thèse dauphine - nombreux documents chercheurs +

Chapitre5

164

2.1.2. Interprétation des classes

1ère Classe :

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

ITE

M19

ITE

M12

ITE

M1

ITE

M4

ITE

M41

ITE

M34

ITE

M39

ITE

M25

ITE

M38

ITE

M58

ITE

M51

ITE

M54

ITE

M31

ITE

M47

ITE

M45

ITE

M57

ITE

M40

ITE

M22

ITE

M43

ITE

M23

ITE

M52

ITE

M2

ITE

M36

ITE

M5

ITE

M42

ITE

M30

ITE

M35

ITE

M32

ITE

M6

ITE

M9

ITE

M3

ITE

M7

ITE

M8

ITE

M10

ITE

M16

Items

Val

eur-

Test

Valeur-Test

Figure 25.Valeurs-Tests de la Classe 1/ 5 60

La figure 25 présente les valeurs-tests des items pour la première classe. Dans cette classe, les

répondants sont à majorité rattachés au département du Marketing et Management. Quatre

répondants sur 26 n’ont pas donné d’exemples d’agents intelligents. C’est une population qui

n’est pas trop réticente à nous donner des précisions sur les agents utilisés.

La valeur-test évalue la distance entre la moyenne dans la classe et la moyenne générale en

nombre d’écart-type. Cette valeur dépasse la valeur 2 pour les items 19, 12, 1, 4. Le premier

item mesure la qualité du service offert par les AI. Le deuxième item mesure l’autorisation

d’accès aux données. Le troisième item mesure la qualité des données en terme

d’actualisation et le quatrième item mesure la qualité des données en terme d’exactitude.

C’est une population qui ne parvient pas à obtenir des données actualisées, et les agents

intelligents utilisés ne repèrent pas des données utiles dans leur travail. Elle pense que ces

agents traitent les problèmes de gestion de leur groupe d’une manière sérieuse. Les agents

cités dans cette classe sont : les moteurs de recherche, Internet, Copernic, Business Objects.

60 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 1/ 5.

Page 168: thèse dauphine - nombreux documents chercheurs +

Chapitre5

165

C’est un cocktail d’agents de recherche, de traitement, de diffusion d’information et d’aide à

la décision.

Ce groupement d’agents est utilisé par les personnes qui ne parviennent pas à obtenir des

données suffisamment actuelles pour répondre à leurs besoins. Donc c’est le type d’agents

qui ne permet pas d’actualiser les données de l’entreprise, en plus il n’arrive pas à repérer des

données utiles dans leur travail (c’est le cas des moteurs de recherche cités ci-dessus dont le

rôle se limite à la recherche des informations externes). Les utilisateurs de cette classe ont des

difficultés quant à l’autorisation d’accès aux données. En revanche, ils considèrent que cette

technologie est capable de traiter les problèmes de gestion du groupe de manière sérieuse. Le

rôle de ces agents consiste à traiter les informations internes au sein d’un groupe.

L’agent d’alerte, cité dans la batterie d’agents (nommé crawler d’alerte), est un outil très

important pour la veille, son rôle est d’effectuer de la surveillance sur certains sites et détecter

les éventuels changements.

C’est une classe qui n’est pas satisfaite ni des AI dans leur ensemble ni de leur processus

d’utilisation. Elle trouve qu’il n’est pas aisé d’interagir avec les AI. Elle n’est pas satisfaite de

l’interface avec les AI. Cela est expliqué par le fait que ces utilisateurs appartiennent à des

entreprises dont les données disponibles ne sont pas suffisamment détaillées, autrement dit,

elles ne leur permettent pas de mener convenablement leur tâche.

Les utilisateurs de cette classe sont peu adhérents aux fonctionnalités de cette technologie par

rapport à la première et la quatrième fonctionnalité proposées dans le questionnaire. Cette

population n’est pas d’accord sur le fait que les agents cités font de la recherche sur les

consommateurs ou peuvent résoudre les problèmes sémantiques et syntaxiques. Elle ne

trouve pas que les AI sont faciles à utiliser. Pour elle, l’utilisation des AI n’augmente pas

l’efficacité dans le travail et ne sont pas utiles. Elle ne permet pas d’accomplir les tâches plus

rapidement et n’améliore pas la performance dans le travail. La mauvaise perception de cette

technologie peut être due à son utilisation faible et à la qualité des données disponibles. Une

donnée doit être bien détaillée pour pouvoir la consolider sur tout axe là où veut l’utiliser.

Ainsi, c’est une catégorie d’utilisateurs trouvant des difficultés pour découvrir la définition

exacte du champ des données relatives à leurs tâches. Dans ces entreprises, le recours à cette

technologie n’est pas adéquat aux besoins de l’utilisateur, c’est à dire l’utilisateur n’est pas

assuré de l’actualisation et de la disponibilité des AI lorsqu’il en a besoin. Ces utilisateurs

achètent des prestations auprès des sociétés spécialisées, pour faire des recherches ciblées sur

Page 169: thèse dauphine - nombreux documents chercheurs +

Chapitre5

166

leur clientèle ou ils peuvent faire recours aux organisations des forums. Le tableau suivant

montre que le secteur d’activité des entreprises interrogées représente un milieu très

concurrentiel ce qui exige des informations mises à jour et d’actualité.

Nous présentons dans le tableau 2761 les agents intelligents les plus cités par les répondants.

Ce tableau exprime le nom des AI, le nombre d’utilisateurs, le secteur d’activité de

l’entreprise, la fonction de l’utilisateur et son département :

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Industrie, Auto, CCI Directeur Marketing et Management

Industrie, Auto, CCI Analyste Marketing et Management

Banques, Sociétés financières

Utilisateur Marketing et Management

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Google 5

Commerce et distribution

Directeur Marketing et Management

Banques, Sociétés financières

Analyste Finance et Gestion

Banques, Sociétés financières

Analyste Finance et Gestion

Banques, Sociétés financières

Analyste Finance et Gestion

SAP 4

Banques, Sociétés financières

Analyste Finance et Gestion

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Conseil, Ingénierie, Formation

Non indiquée Système d’Information

Moteurs de recherche

3

Informatique, Bureautique, Réseaux et Télécoms

Directeur Marketing et Management

Industrie, Auto, CCI Analyste Marketing et Management

Commerce et distribution

Directeur Marketing et Management

Hyperion 3

Banques, Sociétés financières

Analyste Finance et Gestion

Informatique, Bureautique, Réseaux et Télécoms

Directeur Informatique Copernic 2

Industrie, Auto, CCI Directeur Marketing et Management

Industrie, Auto, CCI Analyste Marketing et Management

Business Objects 2

Commerce et distribution

Non indiquée Marketing et Management

61 Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 1/5.

Page 170: thèse dauphine - nombreux documents chercheurs +

Chapitre5

167

Banques, Sociétés financières

Analyste Finance et Gestion Impromptu 2

Banques, Sociétés financières

Analyste Finance et Gestion

Autres62 14 Voir l’annexe 8.1.2 (b) Classe 1/5

Voir l’annexe 8.1.2 (b) Classe 1/5

Voir l’annexe 8.1.2 (b) Classe 1/5

Conseil, Ingénierie, Formation

Utilisateur Système d’Information

Banques, Sociétés financières

Directeur Finance et Gestion

Industrie, Auto, CCI Concepteur R & D

Pas de réponses 4

Conseil, Ingénierie, Formation

Concepteur R & D

Tableau 27. Les AI utilisés par les répondants de la classe 1/5 et leurs domaines d’application

2ème Classe :

-9,00

-8,00

-7,00

-6,00

-5,00

-4,00

-3,00

-2,00

-1,00

0,00

ITE

M18

ITE

M12

ITE

M15

ITE

M13

ITE

M14

ITE

M6

ITE

M8

ITE

M59

ITE

M2

ITE

M26

ITE

M35

ITE

M16

ITE

M52

ITE

M36

ITE

M27

ITE

M5

ITE

M7

ITE

M53

ITE

M17

ITE

M49

ITE

M32

ITE

M3

ITE

M57

ITE

M51

ITE

M44

ITE

M9

ITE

M30

ITE

M54

ITE

M58

ITE

M38

ITE

M39

ITE

M10

ITE

M46

ITE

M31

ITE

M37

ITE

M47

ITE

M45

ITE

M40

ITE

M42

ITE

M21

ITE

M11

ITE

M22

ITE

M19

ITE

M43

ITE

M48

ITE

M28

ITE

M23

ITE

M41

ITE

M25

ITE

M24

ITE

M20

ITE

M29

Items

Val

eur-

Test

Valeur-Test

Figure 26.Valeurs-Tests de la Classe 2/ 5 63

La figure 26 présente les valeurs-tests des items pour la deuxième classe. La deuxième classe

est caractérisée par les utilisateurs des AI appartenant au département des systèmes

d’information. Dix répondants sur 36 n’ont pas cité d’exemple d’agents intelligents.

C’est une population qui n’adhère pas au questionnaire. Nous pouvons considérer les

utilisateurs comme « atypiques », c’est à dire, ils ont des petits groupes à gérer donc ils n’ont

62 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b) Classe 1/5) 63 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 2/ 5.

Page 171: thèse dauphine - nombreux documents chercheurs +

Chapitre5

168

pas besoin d’échanger beaucoup d’informations. Se sont des utilisateurs qui font la recherche

sur le web. Cette recherche leur permet d’avoir des informations tardives. Donc ils ne sont pas

satisfaits de ces outils qui se limitent à la recherche d’informations. Ils vont faire appel aux

cabinets de conseils qui leur donnent des informations actualisées. Ces derniers peuvent

fournir l’information traitée à temps et qui a son tour sera utilisée dans le processus de prise

de décision.

Les utilisateurs de cette deuxième classe diffèrent des premiers par le fait qu’ils ne sont pas

d’accord que les AI soient sujets à des problèmes et à des arrêts fréquents. Ils appartiennent à

des entreprises qui disposent de données équivalentes et cohérentes même si elles proviennent

de deux sources différentes. En revanche, ces entreprises ne disposent pas de données

suffisamment détaillées, et ce n’est pas aisé pour elles de les localiser sur un problème

particulier. La mise à jour des données est indispensable pour répondre aux besoins des

utilisateurs.

En ce qui concerne l’aspect de la tâche, ces utilisateurs sont fréquemment amenés à traiter des

problèmes de gestion bien définis et routiniers. Ainsi, les problèmes traités n’impliquent pas

plusieurs services fonctionnels de l’organisation.

La présence de l’item 30 dont la valeur test est négative montre que les utilisateurs de cette

classe ne maîtrisent pas cette technologie. Ce qui explique qu’ils ne sont ni satisfaits des AI,

ni conscients des fonctionnalités de cette technologie. Ils ont la même perception que les

utilisateurs de la première classe. En effet, ils considèrent que l’utilisation des AI n’augmente

pas l’efficacité dans le travail et qu’elle n’est pas d’une grande utilité. Ils partagent aussi

l’avis des premiers utilisateurs sur le fait que c’est une technologie qui n’a pas d’impact

positif sur la productivité. (Présence des items 44, 42, 43)

C’est une population qui n’envisage pas d’utiliser cette technologie dans le processus de prise

de décision (Items 48 et 49), ni dans la phase de l’identification des problèmes, ni dans la

phase d’évaluation des solutions.

Par rapport à la qualité de service rendu par les AI, les utilisateurs de cette classe pensent que

le temps de communication (de saisie des critères de recherche) avec les AI est court. Ils ne

savent pas ce qu’il advient de leur requêtes auprès des AI. Pour eux, ces AI n’ont pas un

intérêt réel pour la résolution des problèmes de gestion et ne répondent pas à leurs demandes

dans un délai raisonnable (temps de traitement de la demande).

Page 172: thèse dauphine - nombreux documents chercheurs +

Chapitre5

169

Ces utilisateurs risquent de ne pas faire recours à cette technologie dans le futur compte tenu

de leur expérience antérieure.

C’est une population qui utilise quasiment les mêmes outils technologiques que la première

mais qui ne voit aucun intérêt de cette technologie.

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Matériel électrique, Electronique

Directeur R & D

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Informatique

Banques, Sociétés financières

Utilisateur Informatique

Banques, Sociétés financières

Directeur Informatique

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Google 7

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Conseil, Ingénierie et Formation

Directeur Non indiqué

Commerce et Distribution

Directeur Finance & Gestion

Conseil, Ingénierie et Formation

Utilisateur Systèmes d’Information

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Copernic 5

Banques, Sociétés financières

Directeur Informatique

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Finance & Gestion

Banques, Sociétés financières

Utilisateur Informatique

Banques, Sociétés financières

Directeur Finance & Gestion

Intranet 5

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Internet 3

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Page 173: thèse dauphine - nombreux documents chercheurs +

Chapitre5

170

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion Lotus Notes 2

Industrie, Auto, CCI Directeur Marketing & Management

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion Base de Connaissances GEIDE

2

Conseil, Ingénierie et Formation

Concepteur Informatique

Industrie, Auto, CCI Directeur Marketing & Management

Cognos 2

Banques, Sociétés financières

Directeur Informatique

Banques, Sociétés financières

Utilisateur Informatique Yahoo 2

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Matériel électrique, Electronique

Non indiquée R & D Website Watcher 2

Conseil, Ingénierie et Formation

Directeur R & D

Autres64 22 Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Pas de réponses 10 Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Voir l’annexe n° 8.1. 2. (b) Classe 2/ 5

Tableau 28. Les AI utilisés par les répondants de la classe 2/5 et leurs domaines d’application65

Dans ce groupe notons la présence des agents pour la recherche d’informations (Copernic,

Digout 4U, Exalead, Google,…) et des agents pour la veille (Website Watcher, Webspecter,

Memoweb…). Ces noms de logiciels introduisent la métaphore humaine : les caractéristiques

de l’homme sont présentes dans sa mémoire (Memo Web, Digimind), dans ses actions

(Google : aller chercher ; Webseeker : chercher ; Webspectator : regarder ; Website Watcher :

surveiller ; Digout 4U/ for you : creuser) et dans sa prédiction (Yahoo/oracle).

Ainsi, ces agents introduisent le monde animal dans le nom de l’agent KB Crawl. Ce dernier

terme exprime l’activité des agents des moteurs de recherche qui consiste à visiter des sites

web et envoyer des contenus de pages au moteur d’indexation. (Wisdom, 200566)

Les noms des AI, choisis par les fournisseurs de ces logiciels dédiés à la veille, montrent bien

leur objectif purement marketing pour attirer les utilisateurs sur leurs produits.

64 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b) Classe 2/5) 65 Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 2/5. 66 J. R. Wisdom, Les agents intelligents sur Internet : enjeux économiques et sociétaux, Thèse à l’ENST Paris, 2005.

Page 174: thèse dauphine - nombreux documents chercheurs +

Chapitre5

171

3ème Classe :

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

ITE

M24

ITE

M25

ITE

M33

ITE

M57

ITE

M4

ITE

M58

ITE

M14

ITE

M21

ITE

M18

ITE

M12

ITE

M15

ITE

M11

ITE

M17

ITE

M13

Items

Val

eur-

Test

Valeur-Test

Figure 27.Valeurs-Tests de la Classe 3/ 5 67

La figure 27 présente les valeurs-tests des items pour la troisième classe. L’effectif de cette

classe est le plus faible (15). Quatre répondants sur 15 n’ont pas donné d’exemples d’agents.

C’est une population qui est consciente de la qualité du service des AI et de la facilité de son

utilisation. Elle envisage d’utiliser cette technologie dans le futur vu qu’elle est satisfaite du

niveau de conseil technique et de gestion qu’elle reçoit des AI. Les utilisateurs de cette classe

sont à majorité des informaticiens, ils ont l’habitude de s’adresser au web plus que les autres.

Ils sont familiers à la technologie.

Cette population partage le même avis que la deuxième classe en ce qui concerne la

compatibilité des données acquises provenant de sources différentes.

Elle a par contre la facilité d’accès aux données (Items 11 et 12). Pour eux, les AI utilisés ne

sont pas sujets à des problèmes inattendus qui les rendent plus difficiles à utiliser. Autrement

dit, ils ne sont pas sujets à des problèmes et à des arrêts fréquents.

67 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 3/ 5.

Page 175: thèse dauphine - nombreux documents chercheurs +

Chapitre5

172

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Conseil, Ingénierie, Formation

Directeur Systèmes d’Information

Méta-Moteurs 2

Matériel électrique, Electronique

Utilisateur R & D

Industrie, Auto, CCI Concepteur Systèmes d’Information

Copernic 2

Industrie, Auto, CCI Directeur R & D Data Mining 1 Conseil, Ingénierie,

Formation Directeur Systèmes

d’Information Text Mining 1 Conseil, Ingénierie,

Formation Directeur R & D

ERP 1 Industrie, Auto, CCI Directeur Finance & Gestion Autres 68 9 Voir l’annexe n° 8.1.

2. (b) Classe 3/ 5 Voir l’annexe n° 8.1. 2. (b) Classe 3/ 5

Voir l’annexe n° 8.1. 2. (b) Classe 3/ 5

Conseil, Ingénierie, Formation

Utilisateur R & D

Informatique, Bureautique, Réseaux et Télécoms

Concepteur R & D

Pas de réponses 3

Conseil, Ingénierie, Formation

Directeur Systèmes d’Information

Tableau 29. Les AI utilisés par les répondants de la classe 3/5 et leurs domaines d’application69

Les agents intelligents cités par cette population sont rarement cités : Data Mining, Text

Mining, ERP…C’est une population qui tentera dans le futur d’utiliser les conseils d’agents

intelligents en cas de besoin. Elle perçoit la facilité d’utilisation de cette technologie.

Elle contredit le fait que les AI prennent trop de temps pour communiquer avec l’utilisateur et

le fait qu’ils ne repèrent pas des données utiles aux besoins.

68 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b) Classe 3/5) 69 Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 3/5.

Page 176: thèse dauphine - nombreux documents chercheurs +

Chapitre5

173

4ème Classe :

-4,00

-2,00

0,00

2,00

4,00

6,00

8,00

ITE

M18

ITE

M11

ITE

M5

ITE

M19

ITE

M27

ITE

M4

ITE

M42

ITE

M43

ITE

M48

ITE

M21

ITE

M9

ITE

M38

ITE

M23

ITE

M6

ITE

M58

ITE

M47

ITE

M22

ITE

M29

ITE

M26

ITE

M40

ITE

M30

ITE

M49

ITE

M45

ITE

M36

ITE

M41

ITE

M16

ITE

M31

ITE

M25

ITE

M3

ITE

M51

ITE

M35

ITE

M50

ITE

M46

ITE

M44

ITE

M15

ITE

M7

ITE

M28

ITE

M37

ITE

M52

ITE

M2

ITE

M57

ITE

M10

ITE

M14

ITE

M59

Items

Val

eur-

Test

Valeur-Test

Figure 28. Valeurs-Tests de la Classe 4/ 5 70

La figure 28 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est

sur-représentée par les répondants qui appartiennent au département informatique. L’AI pour

cette population est l’ordinateur (La valeur test de l’item 58 qui mesure l’intensité maximale

d’utilisation est égale à 4,42). Cette classe est utile pour l’étude de l’interaction homme-

machine. Cet outil est utilisé par des personnes qui sont fréquemment amenées à traiter des

problèmes de gestion non-routiniers et mal définis (Items 27, 26). Ils traitent des problèmes

impliquant plusieurs services fonctionnels (Items 29, 28).

Ces utilisateurs perçoivent l’ordinateur comme un outil d’aide à la décision (Items 48, 49 et

50).

Ils accordent attention aux variables telles que la qualité des données (Items 5, 4, 6, 3, 2), la

localisation des données (Items 9, 7 et 10) et la qualité du service offert par les ordinateurs

(Items 19, 21, 23, 22 et 25). Pour eux l’ordinateur est sujet à des problèmes et à des arrêts

fréquents, mais il est actualisé et disponible en cas de besoin.

Ces utilisateurs sont d’accord sur le fait qu’il est nécessaire de comparer ou de consolider des

données provenant de différentes sources (item 15), mais ils ne trouvent pas de difficultés

pour comparer ces données (item14).

70 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 4/ 5.

Page 177: thèse dauphine - nombreux documents chercheurs +

Chapitre5

174

Dans cette classe l’ordinateur est considéré comme un agent intelligent. D’autres agents

sont présentés dans le tableau 30 :

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Moteurs de recherche ; Tableaux de bord multidimensionnels ; e-learning ; composants logiciels spécialisés

1 Conseil, Ingénierie, Formation

Directeur Marketing & Management

Internet 1 Conseil, Ingénierie, Formation

Directeur Marketing & Management

Ordinateur 32 Informatique, Bureautique, Réseaux et Télécoms

Analyste Informatique

Tableau 30. Les AI utilisés par les répondants de la classe 4/5 et leurs domaines d’application71

Ces agents de recherche semblent être des agents importants pour les veilleurs. Ils

automatisent la recherche des informations sur les consommateurs (présence de l’item 51).

C’est le cas des tableaux de bord multidimensionnels qui constituent un outil de « reporting ».

Autrement dit, c’est un « rétroviseur » qui permet de visualiser l’historique.

L’ordinateur est un agent d’interface qui permet de se connecter au web. Il contient des outils

autonomes et indépendants. Notons que ces utilisateurs n’ont pas précisé les logiciels utilisés

pour rechercher et traiter l’information.

71 Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 4/5.

Page 178: thèse dauphine - nombreux documents chercheurs +

Chapitre5

175

5ème Classe :

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

6,00

8,00

10,00

ITE

M32

ITE

M10

ITE

M14

ITE

M59

ITE

M17

ITE

M20

ITE

M7

ITE

M41

ITE

M54

ITE

M57

ITE

M3

ITE

M8

ITE

M43

ITE

M21

ITE

M42

ITE

M23

ITE

M13

ITE

M22

ITE

M39

ITE

M51

ITE

M52

ITE

M29

ITE

M47

ITE

M30

ITE

M45

ITE

M58

ITE

M53

ITE

M9

ITE

M40

ITE

M35

ITE

M2

ITE

M11

ITE

M25

ITE

M16

ITE

M31

ITE

M12

ITE

M15

ITE

M37

ITE

M36

ITE

M49

ITE

M6

ITE

M38

ITE

M5

ITE

M27

ITE

M4

Items

Val

eur-

Test

Valeur-Test

Figure 29. Valeurs-Tests de la Classe 5/ 5 72

La figure 29 présente les valeurs-tests des items pour la cinquième classe. Cette dernière est

une population formée par des électroniciens. Ces derniers sont liés au domaine de la

recherche. Ils sont familiers à cette technologie dans des fins de recherche et de traitement

informatique.

La valeur test est positive pour les variables liées à : la qualité des données (Items 3, 2, 6, 5) ;

la localisation des données (Items 10, 7, 8 et 9), l’autorisation d’accès aux données (Items 11

et 12), la compatibilité des données (Items 14, 13 et 15), la pertinence des systèmes (17 et 16);

la qualité du service des AI (Items 20, 21, 23, 22 et 25) et les caractéristiques de la tâche (Item

29). Nous sommes confrontés des utilisateurs qui ne traitent pas des problèmes non-routiniers

(Item 27)

Les utilisateurs de cet outil s’accordent sur le fait que l’ordinateur de montage puce repère des

données qui seraient utiles dans le travail (la valeur test de l’item 4 est négatif).

Dans cette classe, l’ordinateur de montage puce est considéré comme un agent intelligent.

D’autres agents sont présentés dans le tableau 31:

72 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 5/ 5.

Page 179: thèse dauphine - nombreux documents chercheurs +

Chapitre5

176

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Google 1 Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Ordinateur de Montage Puce

43 Matériel électrique, Electronique

Concepteur R & D

Tableau 31. Les AI utilisés par les répondants de la classe 5/5 et leurs domaines d’application73

Ces agents résolvent les problèmes sémantiques et syntaxiques (présence de l’item 54). Ils

répondent aussi aux besoins de stockage, traitement et extraction d’une grande quantité

d’information (présence de l’item 52 et 51).

C’est une population qui a l’intention d’utiliser cette technologie dans le processus de prise de

décision (présence des items qui mesurent l’intention d’utiliser cette technologie dans le

processus de décision et présence de l’item 53 qui propose l’utilisation des AI afin de gagner

du temps pour la prise de décision).

2.1.3. Différenciation des classes

Le but de cette sous-section est de différencier les cinq classes de la première analyse en

fonction des modalités qui les caractérisent. Cette différenciation est répartie sur trois groupes

d’items. Le choix des regroupements est basé sur les résultats de l’analyse factorielle

précédente.

73 Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 5/5.

Page 180: thèse dauphine - nombreux documents chercheurs +

Chapitre5

177

1er groupe d’Items allant de l’Item1 à l’Item 10 74

-8

-6

-4

-2

0

2

4

6

8

10

Item 1 Item 2 Item 3 Item 4 Item 5 Item 6 Item 7 Item 8 Item 9 Item 10

Items

Val

eur-

Test

VT C1

VT C2

VT C3

VT C4

VT C5

Figure 30. Comparaison des Valeurs-Tests des cinq classes (Item1-Item10)

La figure 30 montre clairement, l’absence de la participation de la classe 3 à la réponse aux

questions 1 à 10. Cette classe est présente uniquement avec l’item 4 (valeur-test négative).

Pour cette classe, les AI utilisés repèrent des données très utiles dans leur travail.

La quatrième et la cinquième classe sont caractérisés par ce groupe d’items. Il y a un

désaccord de la classe 5 au niveau de l’item 4.

L’item 1 caractérise uniquement la première classe, cela montre que c’est la seule classe qui

parvient à obtenir des données suffisamment actuelles pour répondre aux besoins.

Cette figure nous permet de conclure que :

- Classe 1 : Nous remarquons une contradiction de réponses au niveau du 1er et 2ème

item qui mesurent l’actualisation des données, ces deux items donnent une

information peu fiable à exploiter. C’est une classe qui ne dispose pas de données

disponibles pour mener ses tâches mais qui a des AI qui repèrent des données

exactes. Elle a des problèmes au niveau de la localisation des données.

- Classe 2 : Cette classe ne dispose pas de données actualisées et exactes. Elle a des

problèmes de localisation des données. 74 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

Page 181: thèse dauphine - nombreux documents chercheurs +

Chapitre5

178

- Casse 3 : Cette classe a des AI qui repèrent des données utiles, mais on ignore si elle

dispose de données de qualité ou pas.

- Classe 4 : Cette classe dispose de données actualisées et qui n’a pas de problèmes de

localisation de données. Par contre les AI utilisés par cette classe ne repèrent pas des

données très utiles.

- Classe 5 : Cette classe n’a pas de problèmes au niveau de la qualité et de la

localisation de données et elle dispose d’AI repérant des données utiles.

2ème groupe d’Items allant de l’Item11 à l’Item 1875

-8

-6

-4

-2

0

2

4

6

8

10

Item 11 Item 12 Item 13 Item 14 Item 15 Item 16 Item 17 Item 18

Items

Val

eur-

Test

VT C1

VT C2

VT C3

VT C4

VT C5

Figure 31. Comparaison des Valeurs-Tests des cinq classes (Item11-Item18)

La figure 31 permet de caractériser les cinq classes :

- Classe 1 : Cette classe a des difficultés d’autorisation d’accès aux données. Elle

utilise des AI qui ne sont pas sujets à des problèmes inattendus.

- Classe 2 : Cette classe accède facilement aux données, trouvant les données acquises

de différentes sources sont compatibles. Elle n’assure pas le fait que les AI utilisés

sont actualisés et disponibles à tout moment. En revanche, ils ne sont pas sujets à des

problèmes inattendus.

- Classe 3 : Cette classe a les mêmes caractéristiques que la deuxième. 75 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

Page 182: thèse dauphine - nombreux documents chercheurs +

Chapitre5

179

- Classe 4 : Cette classe n’a pas des difficultés d’autorisation d’accès aux données. Il

n’est pas difficile pour elle de comparer des données provenant de différentes

sources. C’est une classe qui ne perçoit pas la pertinence des systèmes utilisés .

- Classe 5 : Cette classe a des problèmes d’autorisation d’accès aux données, elle

trouve que les données acquises de différentes sources sont incompatibles et que

c’est difficile de les comparer. Malgré que les AI utilisés sont actualisés, ils sont

sujets à des problèmes inattendus.

3ème groupe d’Items allant de l’Item19 à l’Item 2976

-10

-8

-6

-4

-2

0

2

4

6

8

Item19

Item20

Item21

Item22

Item23

Item24

Item25

Item26

Item27

Item28

Item29

Items

Val

eur-

Test

VT C1VT C2VT C3VT C4VT C5

Figure 32. Comparaison des Valeurs-Tests des cinq classes (Item19-Item29)

La figure 32 amène aux remarques suivantes :

- Classe 1 : Une absence remarquable de cette classe au niveau de l’ensemble de ces

items. C’est une classe qui trouve que les AI traitent des problèmes de gestion de

groupe d’une manière sérieuse. Pour elle, les AI ne sont pas flexibles parce qu’elle

ne sait pas ce qu’il advient à ses requêtes auprès des AI et ils ne répondent pas à ses

demandes dans un délai raisonnable. Ce qui implique la non satisfaction de cette

classe du conseil technique de cette technologie.

76 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

Page 183: thèse dauphine - nombreux documents chercheurs +

Chapitre5

180

- Classe 2 : Cette classe est présente sur tous les items mais qui n’est pas adhérente à

cette technologie. Cela est dû à la nature des problèmes de gestion traités par cette

classe. Ils ont des problèmes bien-définis, routiniers et qui n’impliquent pas toutes

les fonctions de l’organisation.

- Classe 3 : Les AI utilisés par cette classe ne prennent pas trop de temps de

communication d’où le caractère prospectif de cette technologie.

- Classe 4 : Elle est consciente que les AI traitent des problèmes de gestion du groupe

d’où sa perception de la flexibilité de cette technologie. Elle est satisfaite par ses

conseils techniques. Elle est aussi confrontée à traiter des problèmes non-routiniers et

qui impliquent plusieurs services fonctionnels.

- Classe 5 : Elle ressemble à la quatrième classe au niveau de la qualité du service

offert par les AI. Mais c’est une classe qui est confrontée à des problèmes routiniers

et impliquant plus qu’une fonction de l’organisation.

2.2. Groupe de variables actives se référant au modèle théorique de l’Acceptation de la Technologie des AI

2.2.1. Répartition des utilisateurs dans chaque classe :

Classes Nombre d’utilisateurs Variables nominales représentatives

à chaque classe 77 1 38 Département : Finance & Gestion

Tâche : Directeurs 2 29 Secteur : Conseil, Ingénierie, Formation 3 13 Secteur : Informatique, Bureautique, Réseaux et

Télécoms 4 75 Départements : R&D /Informatique

Secteurs : Matériel électrique et électronique/ Informatique, Bureautique, Réseaux et Télécoms.

Tableau 32. Classification des utilisateurs des AI (2ème analyse)

La deuxième analyse est réalisée sur le deuxième groupe des items (30 à 59). Quatre classes

ont été retenues et sont caractérisées par les variables nominales. Ces dernières sont

présentées dans le tableau 32.

77 Voir l’annexe 8. 2. 1. : Caractérisation par les modalités des classes de la partition.

Page 184: thèse dauphine - nombreux documents chercheurs +

Chapitre5

181

2.2.2. Interprétation des classes

1ère Classe :

-8,00

-6,00-4,00

-2,000,00

2,004,00

6,00

ITE

M33

ITE

M44

ITE

M55

ITE

M34

ITE

M16

ITE

M18

ITE

M59

ITE

M35

ITE

M5

ITE

M30

ITE

M41

ITE

M2

ITE

M15

ITE

M51

ITE

M22

ITE

M12

ITE

M10

ITE

M52

ITE

M7

ITE

M9

ITE

M17

ITE

M14

ITE

M3

ITE

M13

ITE

M57

ITE

M21

ITE

M58

ITE

M11

Items

Val

eur-

Test

Valeur-Test

Figure 33. Valeurs-Tests de la Classe 1/ 4 78

La figure 33 représente les valeurs-tests des items pour la première classe. Cette dernière est à

majorité caractérisée par des répondants appartenant au département de la finance et de la

gestion. Elle ne perçoit pas bien cette technologie. Elle n’est pas satisfaite de cette technologie

et de ses fonctionnalités. Malgré qu’elle fait quand même appel à cette technologie (la valeur-

test de l’item 55 est positif). En plus, elle est consciente de la facilité d’apprentissage à

manipuler les AI (items 33, 34) et de son utilité perçue par rapport à l’amélioration de la

productivité du travail (item 44).

Les utilisateurs de cette technologie ne sont pas assurés que les AI sont actualisés et

disponibles lorsqu’ils en ont besoin (la valeur test de l’item 16 est négatif). Pour eux, c’est

une technologie qui n’est pas sujet à des problèmes et à des arrêts fréquents (la valeur test de

l’item 18 est négatif). Les interactions de ces utilisateurs avec les AI ne sont pas claires et

compréhensibles (Item 35).

Dans cette classe, on remarque aussi l’absence de la variable de l’intention d’utiliser les

agents intelligents dans le processus de prise de décision. Cette population n’a pas l’intention

d’utiliser ces agents comme un outil d’aide à la décision. En se basant sur les agents cités, on

78 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 1/ 4.

Page 185: thèse dauphine - nombreux documents chercheurs +

Chapitre5

182

note une présence dominante des agents de recherche et de veille, avec moins de traitement et

pas de prise de décision. Ces agents sont présentés dans le tableau 33 :

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Conseil, Ingénierie et Formation

Directeur Non indiqué

Matériel électrique, Electronique

Directeur R & D

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Informatique

Industrie, Auto, CCI Directeur Marketing et Management

Industrie, Auto, CCI Analyste Marketing et Management

Google 7

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Conseil, Ingénierie et Formation

Directeur Non indiqué

Industrie, Auto, CCI Concepteur Systèmes d’Information

Industrie, Auto, CCI Directeur R & D Industrie, Auto, CCI Directeur Marketing et

Management

Copernic 5

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Conseil, Ingénierie, Formation

Non indiquée Systèmes d’Information

Informatique, Bureautique, Réseaux et Télécoms

Directeur Marketing et Management

Moteurs de recherche

4

Conseil, Ingénierie, Formation

Directeur Marketing & Management

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion

Conseil, Ingénierie, Formation

Directeur Marketing & Management

Internet 4

Industrie, Auto, CCI Directeur Finance & Gestion Banques, Sociétés financières

Analyste Finance et Gestion

Banques, Sociétés financières

Analyste Finance et Gestion

SAP 3

Banques, Sociétés financières

Analyste Finance et Gestion

Page 186: thèse dauphine - nombreux documents chercheurs +

Chapitre5

183

Conseil, Ingénierie, Formation

Directeur Systèmes d’Information

Meta-moteurs 2

Matériel électrique, Electronique

Utilisateur R & D

Banques, Sociétés financières

Analyste Finance et Gestion Impromptu 2

Banques, Sociétés financières

Analyste Finance et Gestion

Conseil, Ingénierie et Formation

Utilisateur Finance & Gestion Lotes Notes 2

Banques, Sociétés financières

Analyste Finance et Gestion

Informatique, Bureautique, Réseaux et Télécoms

Directeur R & D KM 2

Matériel électrique, Electronique

Directeur R & D

Informatique, Bureautique, Réseaux et Télécoms

Directeur R & D ERP 2

Industrie, Auto, CCI Directeur Finance & Gestion Commerce et distribution

Non indiquée Marketing et Management

Business Objects 2

Industrie, Auto, CCI Analyste Marketing et Management

Conseil, Ingénierie, Formation

Non indiquée Système d’Information

Reconnaissance Vocale

2

Conseil, Ingénierie, Formation

Directeur Marketing & Management

Industrie, Auto, CCI Analyste Marketing et Management

Hyperion 2

Banques, Sociétés financières

Analyste Finance et Gestion

Data Mining 1 Conseil, Ingénierie, Formation

Directeur Systèmes d’Information

Autres 79 19 Voir l’annexe n° 8.2. 2. (b) Classe 1/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 1/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 1/ 4

Commerce et Distribution

Directeur Systèmes d’Information

Conseil, Ingénierie, Formation

Utilisateur R & D

Informatique, Bureautique, Réseaux et Télécoms

Concepteur R & D

Conseil, Ingénierie et Formation

Non Indiquée Marketing & Management

Pas de réponses 5

Industrie, Auto, CCI Concepteur R & D

Tableau 33. Les AI utilisés par les répondants de la classe 1/4 et leurs domaines d’application80

79 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b) Classe 1/ 4) 80 Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 1/4.

Page 187: thèse dauphine - nombreux documents chercheurs +

Chapitre5

184

2ème Classe :

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

ITE

M33

ITE

M34

ITE

M27

ITE

M18

ITE

M13

ITE

M15

ITE

M31

ITE

M50

ITE

M32

ITE

M59

ITE

M28

ITE

M2

ITE

M19

ITE

M52

ITE

M3

ITE

M9

ITE

M11

ITE

M25

ITE

M16

ITE

M38

ITE

M57

ITE

M17

ITE

M24

ITE

M7

ITE

M37

ITE

M47

ITE

M30

ITE

M5

ITE

M8

ITE

M53

ITE

M39

ITE

M10

ITE

M20

ITE

M23

ITE

M46

ITE

M22

ITE

M6

ITE

M29

ITE

M58

ITE

M21

ITE

M51

ITE

M48

ITE

M40

ITE

M49

ITE

M42

ITE

M54

ITE

M41

ITE

M43

ITE

M45

ITE

M44

Items

Val

eur-

Test

Valeur-Test

Figure 34. Valeurs-Tests de la Classe 2/ 4 81

La figure 34 présente les valeurs-tests des items pour la deuxième classe. Les répondants de la

deuxième classe ne perçoivent pas bien cette technologie. Ils sont conscients de la facilité

d’utilisation des AI (items 33, 34). Ils se rapprochent des utilisateurs de la première classe.

C’est une classe qui regroupe en majorité les agents de recherche. Cette population n’envisage

pas d’utiliser ces agents dans le processus de prise de décision (au niveau des trois phases).

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Banques, Sociétés financières

Utilisateur Informatique

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Banques, Sociétés financières

Directeur Informatique

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Google 5

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Banques, Sociétés financières

Directeur Informatique Copernic 4

Informatique, Bureautique, Réseaux et Télécoms

Directeur Informatique

81 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 2/ 4.

Page 188: thèse dauphine - nombreux documents chercheurs +

Chapitre5

185

Conseil, Ingénierie et Formation

Utilisateur Systèmes d’Information

Commerce et Distribution

Directeur Finance & Gestion

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Finance & Gestion

Banques, Sociétés financières

Utilisateur Informatique

Intranet 3

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Informatique

Ordinateur 3

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Systèmes d’Information

Informatique, Bureautique, Réseaux et Télécoms

Utilisateur Informatique Internet 2

Industrie, Auto, CCI Concepteur R & D Conseil, Ingénierie, Formation

Directeur Marketing & Management

Moteurs de recherche

2

Conseil, Ingénierie et Formation

Directeur Marketing & Management

Banques, Sociétés financières

Utilisateur Informatique Yahoo 2

Informatique, Bureautique, Réseaux et Télécoms

Concepteur Systèmes d’Information

Autres 82 16 Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Pas de réponses 6 Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 2/ 4

Tableau 34. Les AI utilisés par les répondants de la classe 2/4 et leurs domaines d’application83

82 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b) Classe 2/ 4) 83 Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 2/4.

Page 189: thèse dauphine - nombreux documents chercheurs +

Chapitre5

186

3ème Classe :

-9,00-8,00-7,00-6,00-5,00-4,00-3,00-2,00-1,000,00

ITE

M11

ITE

M9

ITE

M16

ITE

M40

ITE

M29

ITE

M30

ITE

M41

ITE

M48

ITE

M44

ITE

M49

ITE

M10

ITE

M22

ITE

M20

ITE

M37

ITE

M25

ITE

M46

ITE

M42

ITE

M47

ITE

M43

ITE

M23

ITE

M45

ITE

M33

ITE

M39

ITE

M38

ITE

M32

ITE

M31

ITE

M35

ITE

M34

ITE

M36

Items

Val

eur-

Test

Valeur-Test

Figure 35. Valeurs-Tests de la Classe 3/ 4 84

La figure 35 présente les valeurs-tests des items pour la troisième classe. C’est une population

qui n’est pas satisfaite par cette technologie, elle n’a pas l’intention de l’utiliser dans le

processus de prise de décision et elle n’est pas consciente de l’utilité de cette technologie dans

la productivité et la qualité de travail. Elle n’a pas donné des précisions sur les fonctionnalités

et l’intensité d’utilisation de cette technologie (absence totale des items qui mesurent à la fois

les fonctionnalités et l’intensité d’utilisation des agents).

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Banques, Sociétés financières

Utilisateur Marketing et Management

Google 2

Commerce et distribution

Directeur Marketing et Management

SAS 1 Commerce et distribution

Directeur Marketing et Management

BO 1 Banques, Sociétés financières

Directeur Finance & Gestion

Cognos 1 Industrie, Auto, CCI Directeur Marketing & Management

Website Watcher 1 Matériel électrique, Electronique

Non indiquée R & D

Autres 85 7 Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Pas de réponses 6 Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Voir l’annexe n° 8.2. 2. (b) Classe 3/ 4

Tableau 35. Les AI utilisés par les répondants de la classe 3/4 et leurs domaines d’application86

84 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 3/ 4. 85 La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 7.2.2 (b) Classe 3/ 4)

Page 190: thèse dauphine - nombreux documents chercheurs +

Chapitre5

187

4ème Classe :

0,00

2,00

4,00

6,00

8,00

10,00

ITE

M41

ITE

M43

ITE

M42

ITE

M58

ITE

M11

ITE

M22

ITE

M23

ITE

M21

ITE

M10

ITE

M47

ITE

M45

ITE

M57

ITE

M29

ITE

M30

ITE

M51

ITE

M3

ITE

M40

ITE

M32

ITE

M9

ITE

M7

ITE

M35

ITE

M54

ITE

M52

ITE

M25

ITE

M5

ITE

M16

ITE

M31

ITE

M20

ITE

M36

ITE

M38

ITE

M39

ITE

M17

ITE

M49

ITE

M8

ITE

M48

ITE

M2

ITE

M6

ITE

M15

ITE

M13

ITE

M37

ITE

M59

ITE

M46

ITE

M44

ITE

M14

ITE

M28

ITE

M24

ITE

M18

ITE

M19

ITE

M53

ITE

M12

ITE

M50

ITE

M26

ITE

M27

Items

Val

eur-

Test

Valeur-Test

Figure 36. Valeurs-Tests de la Classe 4/ 4 87

La figure 36 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est

faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4

La valeur test dépasse 1,96 dans chacune des variables explicatives (du deuxième modèle

théorique). C’est population composée de 70 utilisateurs.

C’est une classe qui utilise intensivement les AI, elle est satisfaite de cette technologie, avec

une bonne perception de cet outil. Elle a aussi l’intention de l’utiliser dans le processus de

prise de décision au niveau des trois phases (identification des problèmes, évaluation et

sélection des solutions).

Cette classe correspond à la 4ème et 5ème classe de la première classification. L’ordinateur et

l’ordinateur de montage puce sont considérés comme des AI pour cette population. Dans cette

classe on note la présence d’une autre réponse qui est celle du Text Mining.

Noms des agents Nombre d’utilisateurs

Secteur d’activité de l’entreprise

Fonction de l’utilisateur

Son département

Text Mining 1 Conseil, Ingénierie, Formation

Directeur R & D

Ordinateur Informatique, Bureautique, Réseaux et Télécoms

Analyste Informatique

Ordinateur de Montage Puce

74

Matériel électrique, Electronique

Concepteur R & D

Tableau 36. Les AI utilisés par les répondants de la classe 4/4 et leurs domaines d’application88

86 Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 3/4. 87 Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4.

Page 191: thèse dauphine - nombreux documents chercheurs +

Chapitre5

188

2.2.3. Différenciation des classes

1er groupe d’Items allant de l’Item30 à l’Item 41 89:

-10,00

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

6,00

8,00

10,00

12,00

Item30

Item31

Item32

Item33

Item34

Item35

Item36

Item37

Item38

Item39

Item40

Item41

Items

Val

eur-

Test VT C1

VT C2

VT C3

VT C4

Figure 37. Comparaison des Valeurs-Test des quatre classes (Item30-Item41)

Cette figure nous montre les remarques suivantes :

- Classe 1 : Cette classe ne connaît pas bien la technologie des AI. Elle perçoit la

facilité des AI, mais ses interactions avec les AI ne sont pas claires et

compréhensibles. Elle n’est pas satisfaite des AI dans leur ensemble.

- Classe 2 : Cette classe trouve qu’il n’est pas facile d’utiliser les AI mais il est aisé

d’interagir avec eux. C’est une population qui n’est pas satisfaite de cette

technologie.

- Classe 3 : Cette classe perçoit la difficulté d’utilisation des AI et elle n’est pas

satisfaite de cette technologie.

- Classe 4 : Cette classe connaît bien cette technologie et elle perçoit la facilité de son

utilisation, ce qui implique sa satisfaction totale.

88 Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 4/4. 89 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

Page 192: thèse dauphine - nombreux documents chercheurs +

Chapitre5

189

2ème groupe d’Items allant de l’Item 42 à l’Item 5090 :

-10,00

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

6,00

8,00

10,00

12,00

Item 42 Item 43 Item 44 Item 45 Item 46 Item 47 Item 48 Item 49 Item 50

Items

Val

eur-

Test VT C1

VT C2

VT C3VT C4

Figure 38. Comparaison des Valeurs-Test des quatre classes (Item42-Item50)

Nous observons dans cette figure les remarques suivantes :

- Classe 1 : Une absence de réponses remarquables au niveau de ce groupe d’items

(42 à 50). Elle est présente uniquement à l’item 44 qui confirme que l’utilisation des

AI améliore la productivité des utilisateurs.

- Classe 2 : Elle perçoit que ces agents n’ont pas d’impact ni sur la productivité de

l’utilisateur ni sur la qualité du travail. Donc, elle n’a pas l’intention de l’utiliser

dans le processus de prise de décision.

- Classe 3 : Elle la même perception que la deuxième classe.

- Classe 4 : Elle perçoit que ces agents ont un impact positif sur la productivité de

l’utilisateur et sur la qualité du travail. Donc elle a l’intention d’utiliser cette

technologie dans le processus de prise de décision.

90 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

Page 193: thèse dauphine - nombreux documents chercheurs +

Chapitre5

190

3ème groupe d’Items allant de l’Item 51 à l’Item 5991 :

-8,00

-6,00

-4,00

-2,00

0,00

2,00

4,00

6,00

8,00

10,00

Item 51 Item 52 Item 53 Item 54 Item 55 Item 56 Item 57 Item 58 Item 59

Items

Val

eur-

Test VT C1

VT C2VT C3VT C4

Figure 39. Comparaison des Valeurs-Test des quatre classes (Item51-Item59)

Dans cette figure nous observons les conclusions suivantes :

- Classe 1 : Elle perçoit que les AI sont limités à la recherche, stockage et extraction

d’une grande quantité d’informations. C’est une classe qui fait recours quand même à

cette technologie. Le degré d’intensité d’utilisation de la technologie est faible.

- Classe 2 : On observe les mêmes remarques que pour la première classe.

- Classe 3 : Une absence totale remarquable de cette classe dans ce groupe d’items

(51 à 59).

- Classe 4 : Cette classe est consciente des fonctionnalités des AI et nous observons

que l’intensité d’utilisation de cette technologie est élevée.

91 Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

Page 194: thèse dauphine - nombreux documents chercheurs +

Chapitre5

191

2.3. Croisement des deux partitions

Figure 40. Répartition des répondants suite à la classification des deux analyses.

Cette figure montre que :

- Les individus de la classe 1/ 4 sont répartis à majorité sur les trois premières classes

de la première classification.

- Les individus de la classe 2/ 4 sont répartis à majorité sur la classe 2/ 5 et en

moyenne sur la classe 1/ 5.

- Les individus de la classe 3/ 4 sont répartis en proportion égale entre les classes 1/ 5

et 2/ 5.

- Les individus de la classe 4/ 4 regroupent ceux des deux classes 4/ 5 et 5/ 5.

Après l’analyse des données produites de la méthode de classification, nous passons à

l’analyse de la variance.

Page 195: thèse dauphine - nombreux documents chercheurs +

Chapitre5

192

3. Analyse de variance

L’analyse de variance permet d’étudier la liaison entre une variable qualitative et une variable

quantitative.

Le principe de cette analyse est de savoir si les différences entre les moyennes des groupes

définis par les modalités sont significatives. On teste l’hypothèse H0 :

H0 = égalité des moyennes (pas de différences significatives entre les moyennes

observées).

On se donne le risque de premier espèce standard égal à 5 %. Si on rejette H0, on conclut à

une différence significative entre au moins deux moyennes.

Cette analyse92 consiste à chercher, en premier lieu, le degré de lien entre ces trois variables

nominales qui sont la tâche, le département, et les AI utilisés sur les variables des deux

modèles théoriques93. En deuxième lieu, nous cherchons par le biais de cette analyse le degré

de lien entre ces trois variables nominales qui sont le sexe, l’âge et la langue sur les variables

du deuxième modèle théorique.

Nous Récapitulons les résultats94 basés sur l’analyse de la variance sous forme des tableaux

suivants :

Tâche Département AI utilisés Qualité des données * 95 ** 96 ** Localisation des données * ** ** Compatibilité des données * * * Pertinence des systèmes ** *** 97 ** Qualité du service offert par les AI * *** ***

Tableau 37. Degré d’influence des caractéristiques de la Tâche (Tâche) et celles de la Technologie (Département et AI utilisés) sur les variables de l’adéquation technologie-

tâche.

92 Pour faire cette analyse nous avons utilisé le logiciel SPSS.10 93 Les variables du 1er modèle théorique sont : Qualité des données (QD), Localisation des données (LD), Compatibilité des données (CD), Pertinence des systèmes (RS), Qualité du service des AI (QS). Les variables du 2ème modèle sont : L’Intention d’utiliser les AI dans le processus de prise de décision (ItoUse), Satisfaction des utilisateurs de cette technologie (Sat), Fonctionnalités de cette technologie (F), Productivité des utilisateurs (P), Qualité du travail (JQ) et Facilité d’utilisation de cette technologie (EOUse). 94 Ces résultats sont présentés dans l’annexe n°9_CH5. 95 * : une faible influence 96 ** : une influence modérée 97 *** : une grande influence

Page 196: thèse dauphine - nombreux documents chercheurs +

Chapitre5

193

Il y a une faible influence entre la tâche, la qualité des données, la compatibilité des données,

la qualité du service des AI, la facilité d’utilisation des AI, la satisfaction des utilisateurs, les

fonctionnalités des AI, la productivité et la qualité du travail des utilisateurs.

Il y a une influence modérée entre la tâche, la pertinence des systèmes.

Une faible influence entre le département et la compatibilité des données.

L’influence est modérée entre le département, la qualité des données, la localisation des

données, l’intention d’utiliser les AI, la facilité d’utilisation des AI, la satisfaction des

utilisateurs et les fonctionnalités des systèmes.

Une influence élevée entre le département, la pertinence des systèmes, la qualité du service

des AI, la productivité et la qualité du travail.

Une faible influence entre les AI utilisés, la compatibilité des données, l’intention d’utiliser

cette technologie, la facilité d’utilisation des AI, la productivité de l’utilisateur.

L’influence est modérée entre les AI utilisés, la qualité des données, la localisation des

données, la pertinence des systèmes, la satisfaction des utilisateurs et les fonctionnalités des

systèmes.

Une grande influence est entre les AI utilisés, la qualité du service des AI et la qualité de

travail des utilisateurs.

Tâche Département AI utilisés Intention d’utiliser les AI * ** * Facilité d’utilisation * ** * Satisfaction des utilisateurs * ** **

Fonctionnalités des AI * ** ** Productivité * *** * Qualité du travail * *** *** Intensité d’utilisation * ** **

Tableau 38 . Degré d’influence de la tâche, du département et les AI utilisés sur le modèle de l’Acceptation d’une Technologie.

Sexe Age Langue Intention d’utilisation * (n.s.)98 *(n.s.) *(n.s.) Facilité d’utilisation (n.s.) (n.s.) *(n.s.) Satisfaction des utilisateurs (n.s.) *(n.s.) *(n.s.)

98 (n.s.) : non significatif.

Page 197: thèse dauphine - nombreux documents chercheurs +

Chapitre5

194

Fonctionnalités des AI (n.s.) (n.s.) *(n.s.) Productivité (n.s.) (n.s.) *(n.s.) Qualité du travail (n.s.) (n.s.) *(n.s.) Intensité d’utilisation *(n.s.) *(n.s.) (n.s.)

Tableau 39. Degré d’influence du sexe, de l’âge et de la langue sur les variables du modèle de l’Acceptation d’une Technologie.

Il n’y a pas une influence significative entre le sexe et l’ensemble de ces variables. A

l’exception d’une faible influence non significative entre le sexe et l’intention d’utiliser cette

technologie dans le processus de prise de décision.

Il n’y a pas d’influence significative entre l’age et ces variables. A l’exception d’une faible

influence non significative entre l’âge, l’intention d’utilisation et la satisfaction des

utilisateurs.

Il y a une faible influence non significative entre la langue et l’ensemble des variables

présentées ci-dessus.

Page 198: thèse dauphine - nombreux documents chercheurs +

Chapitre5

195

Conclusion

Nous avons consacré ce chapitre à détailler la description des caractéristiques de la population

ciblée.

Nous avons passé ensuite à la phase exploratoire des données qui consiste à faire :

- Une Analyse en Composantes Principales : ayant pour objet de décrire d’une façon

synthétique des tableaux de données dans lesquels les individus (n) sont décrits par

un ensemble de variables quantitatives (k).

- Une classification des utilisateurs des agents intelligents : ayant pour objet de

positionner des individus par rapport aux variables du modèle théorique. L’objectif

étant de dégager une typologie de ces individus.

- Une analyse de variance : ayant pour objet de déterminer si une (ou plusieurs)

variables explicatives (nominales) ont ou non une influence sur une variable à

expliquer (quantitatives).

L’analyse exploratoire n’est pas suffisante pour discuter et confirmer les hypothèses de la

recherche c’est pourquoi nous réservons le chapitre 6 à l’analyse confirmatoire.

Page 199: thèse dauphine - nombreux documents chercheurs +

CHAPITRE 6

Analyse confirmatoire :

Validation des hypothèses de recherche

“…Information is power…So, plan, do, act, check…”

FOURATI A., Lors d’un entretien, le 17 Mai 2006.

Page 200: thèse dauphine - nombreux documents chercheurs +

Chapitre6

197

Introduction

Après avoir présenté les résultats de la phase exploratoire dans le chapitre précédent, nous

consacrons ce chapitre à la phase confirmatoire qui consiste à valider les hypothèses de notre

recherche.

Dans une première section, nous testons le modèle global théorique en utilisant le logiciel

PLS-Graph (Chin, 1998).

Dans une deuxième section, nous décomposons le modèle initial en deux modèles pour

pouvoir analyser l’ensemble des effets linéaires par modèles d’équations structurelles en

utilisant le logiciel AMOS.4.

Dans une troisième section, nous comparons nos résultats avec les travaux effectués

antérieurement.

Section 1. Validation du modèle retenu (PLS)

Les trois étapes générales de considérations méthodologiques sont pertinentes pour

l’application du PLS (Partial Least Squares) dans le contexte de la recherche en management:

(1.1.) répartition de la fiabilité et de la validité de l’échelle de mesure; (1.2.) détermination de

la nature appropriée des relations entre les indicateurs et les construits; et (1.3.) interprétation

des plages de coefficients (« path coefficients), détermination du modèle adéquat et sélection

d’un modèle final auprès de l’étape des alternatives disponibles. (Hulland J. 1999).

1. Indicateurs, Fiabilité et Validité

A travers les paramètres estimés sous PLS pour les liens entre les indicateurs de mesure et les

construits (loadings) et les liens entre les différents construits (path coefficients)

simultanément, le modèle sous PLS est toujours analysé et interprété à travers deux étapes:

- La répartition de la fiabilité et la validité du modèle de mesure suivie par,

- La répartition du modèle structurel.

Le suivi de cette séquence rassure le chercheur sur la disponibilité d’indicateurs de mesure

fiables et sur la validité des construits avant le passage aux conclusions sur la nature des

relations entre les construits. (Hulland J. 1999)

Pour avoir un modèle de mesure adéquat, nous pouvons suivre ces étapes:

Page 201: thèse dauphine - nombreux documents chercheurs +

Chapitre6

198

- La fiabilité des items,

- La validité convergente des indicateurs de mesures avec les construits, et

- La validité discriminante. ( Hulland J. 1999)

1.1. Fiabilité des items

En utilisant le PLS, la fiabilité des items est examinée par les « loadings » (ou une simple

corrélation) des indicateurs de mesures en respectant leurs construits théoriques.

En se référant à Chin (1998), “les loadings standardisés doivent être supérieurs à 0.707”,

autrement dit, il y a un peu plus de variance partagée entre le construit et ses items qu’ entre la

variance des erreurs (Carmines and Zeller, 1979). Si nous considérons que les loadings sont

des corrélations, cela implique qu’il y a plus de 50 % de la variance dans la variable observée

( i.e., le carrée du loading) qui est due au construit.

Dans la pratique, si le modèle estimé possède des loadings inférieurs à 0.707, nous éliminons

un item particulièrement quand de nouveaux items ou de nouvelles échelles développées sont

employées. Pour des relations futures, nous devons ré-examiner les items éliminés et essayer

de déterminer la raison pour laquelle ces items n’ont pas atteint le seuil de 0.7. Un faible

loading peut être le résultat :

- D’un item mal-exprimé (ce problème contribue à une faible fiabilité),

- D’un item inapproprié (ce problème contribue à une mauvaise validité de contenu),

- D’un transfert impropre d’un item d’un contexte à un autre (ce problème contribue à

la non-généralisation des items au sein des contextes et/ou des domaines).Dans le

cadre de notre étude, deux itérations ont été effectuées sous PLS. Les résultats sont présentés

dans le tableau 40.

Variables latentes retenues du modèle théorique

Construits Items TaC F QLD QS IU Sat

EO Use

PUse Ito Use

TaC Item28 Item29

0.90 0.96

F Item51 Item52 Item54

0.85 0.84 0.79

Page 202: thèse dauphine - nombreux documents chercheurs +

Chapitre6

199

QLD

Item3 Item5 Item6 Item7 Item8 Item9 Item10

0.81 0.80 0.83 0.87 0.82 0.83 0.83

QS

Item20 Item22 Item23 Item25

0.83 0.84 0.87 0.84

IU Item57 Item58 0.84

0.94

Sat

Item38 Item39 Item40 Item41

0.81 0.84 0.85 0.88

EOUse

Item31 Item32 Item35 Item36

0.88 0.85 0.91 0.92

PUse

Item42 Item43 Item45 Item46 Item47

0.94 0.95 0.93 0.79 0.88

ItoUse Item48 Item49 0.89

0.88

Tableau 40. « Loadings » dans l’anlayse sous PLS 99

Pour l’ensemble des construits, tous les items possèdent un seuil de loadings raisonnable

(supérieur à 0.707). La majorité est au-dessus de 0.8, donc la validité convergente est

démontrée. Les items qui sont au-dessous de 0.7 ont été éliminés.

1.2. Validité convergente

Les indicateurs multiples sont utilisés pour un construit “individuel”, le chercheur doit être

concerné par la fiabilité des items de mesure individuels, mais il doit aussi vérifier dans quelle

mesure les items peuvent démontrer la validité convergente (Hulland J. 1999).

La validité convergente consiste à calculer la variance moyenne partagée entre un construit et

ses items. Les chercheurs utilisant le PLS avaient recours à une ou deux mesures de la validité

99 Voir Annexe n°1_CH6.

Page 203: thèse dauphine - nombreux documents chercheurs +

Chapitre6

200

convergente: alpha de cronback et la consistance interne100 développés par Fornell et Larcker

(1981). L’interprétation des valeurs obtenues est similaire, ainsi la directive offerte par

Nunnally (1978) peut être adoptée. Nunnally a considéré le seuil de 0.7 comme un record

pour une fiabilité composée “modeste” (composite reliability) appliquée dans les stades de

recherche antérieure101. Pour cette étude, ces valeurs sont présentées dans la colonne 1 du

tableau 41 pour cette étude.

En calculant la consistance interne, nous nous focalisons sur les valeurs de fiabilité composée

(�) développés par Werts et al. (1974). Les mesures de la fiabilité composée fournissent un

support additionnel à la fiabilité et à la validité convergente.(Khalifa & Cheng, 2002)

Après la génération du Bootstrap, toutes les fiabilités composées pour chaque construit sont

au dessus de 0.80. (présenté dans le tableau 41).

Variables latentes Items de mesure

Caractéristiques de la tâche (TaC)

(� = 0.936) Item28 Item29

Caractéristiques de la technologie tels que :

Fonctionnalités des AI (F) (� = 0.870)

Item51 Item52 Item54

Qualité et Localisation des Données (QLD)

(� = 0.941)

Item3 Item5 Item6 Item7 Item8 Item9

Item10

Qualité du Service offert par les AI (QS)

(� = 0.914)

Item20 Item22 Item23 Item25

Intensité d’Utilisation des AI (IU)

(� = 0.887)

Item57 Item58

Satisfaction des utilisateurs (Sat)

(� = 0.912)

Item38 Item39 Item40

100“ Internal consistency” = ((� � yi)² / ((� � yi)² + � var (�j)). 101 “This discussion of convergent validity and the preceding discussion of item reliability can only be applied to measures that are reflective, rather than formative”. (Hulland J. 1999).

Page 204: thèse dauphine - nombreux documents chercheurs +

Chapitre6

201

Item41

Facilité d’utilisation des AI (EOUse)

(� = 0.940)

Item31 Item32 Item35 Item36

Utilité perçue des AI (PUse) (� = 0.957)

Item42 Item43 Item45 Item46 Item47

Intention d’utiliser les AI sur le processus de prise de décision

(ItoUse) (� = 0.886)

Item48 Item49

Tableau 41. Signification & Fiabilité Composite (�) par construit102

La validité convergente de chaque facteur utilisée dans ce modèle semble être acceptable. En

effet, les facteurs relatifs aux caractéristiques de la tâche, à la qualité des données, à la

localisation des données, à la qualité du service des AI, à la satisfaction des utilisateurs, la

facilité d’utilisation des AI, à l’utilité perçue présentent une forte cohérence interne avec une

fiabilité composée (�) de 0,9.

Les facteurs liés aux fonctionnalités des AI, à l’intensité d’utilisation, l’intention d’utiliser les

AI pour le processus de prise de décision, présentent une cohérence interne acceptable avec

une fiabilité composée (�) de 0,8. Ces trois facteurs ont posé des problèmes d’ajustement lors

du test des relations entre les variables latentes de notre modèle théorique.

1.3. Validité discriminante

Le complément méthodologique traditionnel à la validité convergente est celui de la validité

discriminante. Il représente l’étendu par lequel les indicateurs de mesure attribués aux

variables latentes diffèrent-ils aux autres mesures des autres construits du modèle.

La validité discriminante consiste à prouver que la variance partagée entre un construit et ses

mesures (AVE) est supérieure à la variance partagée entre deux construits (r²ij)103.

Dans le contexte du PLS, le seul critère adéquat à la validité discriminante est que le construit

doit plutôt partager la plus grande variance avec ses indicateurs de mesure qu’avec les autres

102 Voir Annexe n°2_CH6. 103 La variance partagée entre construits i et j est égale au carré du coefficient de corrélation entre ces construits: r²ij.

Page 205: thèse dauphine - nombreux documents chercheurs +

Chapitre6

202

construits du modèle donné (Hulland J. 1999). Pour appliquer la validité discriminante,

Fornell et Larcker (1981) suggèrent l’utilisation de “Average Variance Extracted”104 (la

variance moyenne partagée entre le construit et ses indicateurs de mesure).

Cette mesure doit être plus grande que la variance partagée entre le construit et les autres

construits du modèle. (la corrélation carrée entre deux construits). Ce-ci peut être démontré

dans la matrice de corrélation qui inclue les corrélations entre les construits dans les éléments

de la partie gauche inférieure de la diagonale de la matrice, et les valeurs de la racine carrée

de l’AVE calculée pour chaque construit tout au long de la diagonale.

Pour avoir une validité discriminante adéquate, les valeurs présentées dans la diagonale de la

matrice doivent être significativement plus grandes que les éléments en dehors de la diagonale

correspondants aux lignes et aux colonnes (Hulland J. 1999).

Nous présentons les AVE, la racine carré de l’AVE et les corrélations entre les construits dans

le tableau 42, en fournissant une validité discriminante plus claire.

AVE TaC F QLD QS IU Sat EOUse PUse Ito

Use

TaC 0.879 0.937

F 0.690 0.538 0.830

QLD 0.694 0.477 0.693 0.833

QS 0.726 0.587 0.719 0.724 0.852

IU 0.798 0.402 0.378 0.449 0.373 0.893

Sat 0.722 0.461

0.702 0.635 0.842 0.254 0.849

EOUse 0.797 0.365 0.594 0.630 0.782 0.164 0.787 0.892

PUse 0.817 0.513 0.691 0.685 0.840 0.288 0.837 0.720 0.903

Ito Use 0.795 0.567 0.465 0.451 0.637 0.290 0.646 0.554 0.648 0.891

Tableau 42. Matrice des valeurs de l’“Average Variance Extracted ” et corrélations entre les construits sous l’analyse du PLS105

104 AVE = � � yi² / (� � yi² + � var (�j)).

Page 206: thèse dauphine - nombreux documents chercheurs +

Chapitre6

203

2. Relations entre les Construits – Indicateurs de mesure

Après l’évaluation de la validité discriminante, l’étape du cross loadings a été examinée. La

contribution de chaque indicateur attribué à sa variable latente doit être supérieure à la

contribution des autres indicateurs (Chin, 1998). Les résultats confirmant cette condition sont

présentés dans l’annexe n° 4_CH6106.

3. Résultats et Discussion

Pour simplifier l’interprétation des résultats, nous traitons chaque hypothèse du modèle à part.

Dans cette étude, chaque variable latente du second ordre testée, sera numérotée afin

d’indicer les hypothèses dérivées en fonction de la numérotation de ces variables.

Nous présentons ces variables comme suit :

V1 = QLD ; V2 = QS ; V3 = Sat ; V4 = IU ; V5 = EOUse ; V6 = PUse ; V7 = ItoUse; V8 =

TaC; V9 = F.

Hypothèse H1: L’Adéquation Technologie-Tâche (QLD, QS) dépend à la fois des

caractéristiques de la tâche (TaC) et de la technologie (F).

L’étude de cette hypothèse nous a conduit à une formulation plus précise : les caractéristiques

de la tâche (interdépendance des tâches) et de la technologie (fonctionnalités des AI) ont un

impact positif sur l’adéquation technologie-tâche. Cette formulation génère elle-même quatre

hypothèses dérivées (Voir Tableau 43).

105 Voir Annexes n°2 et n°3_CH6. 106 Nous remercions M. A. Schwarz pour son aide précieuse et sa validation des résultats lors du traitement des données sous PLS-Graph.

QLD QS

TaC F

R²=0.495 R²=0.573

2.02* 3.96**

8.68** 8.94**

Page 207: thèse dauphine - nombreux documents chercheurs +

Chapitre6

204

TaC F QLD 0.147 (H18) 0.614 (H19) QS 0.282 (H28) 0.567 (H29) Légende : TaC : caractéristique de la tâche. (V8) F : fonctionnalités des AI. (V9) QLD : qualité et localisation des données. (V1) QS : qualité du service offert par les AI. (V2)

Tableau 43. Influence des caractéristiques de la tâche et de la de la technologie sur l’adéquation technologie-tâche107 (** = 0.005, * = 0.025)108

Les caractéristiques de la tâche et de la technologie expliquent 50% de la variance pour la

qualité des données. Les caractéristiques de la technologie a un grand effet avec une plage de

coefficient de 0.614. Les caractéristiques de la tâche ont un faible effet avec une plage de

coefficients de 0.147.

L’effet des caractéristiques de cette technologie des AI est plus dominant avec des plages de

coefficients directes de (0.614 et 0.567) en comparaison avec les caractéristiques de la tâche

(plages de coefficients sont de 0.147 et de 0.282). Ces résultats montrent que l’augmentation

des fonctionnalités des AI dépend de l’adéquation technologie-tâche dans le même sens.

Ainsi, l’augmentation de l’interdépendance des tâches peut fournir un support adéquat à la

technologie-tâche.

L’effet des caractéristiques de la tâche sur l’adéquation technologie-tâche :

Goodhue & Thompson (1995) ont mesuré la tâche en prenant en considération ses

caractéristiques non routinières, ses interdépendances et la tâche du participant. Ils ont trouvé

que l’effet le plus élevé provenant de ces caractéristiques est celui des tâches non-routinières.

Ils ont expliqué cet effet par l’idée que les responsables sont constamment forcés d’utiliser les

technologies des systèmes d’information pour aborder les nouveaux problèmes, comme la

veille des nouvelles données en combinaison avec les méthodes non-familières. Ils ont donc

plus de demandes en terme de systèmes. L’interdépendance des tâches de travail est observée

pour influencer les perceptions de compatibilité et la pertinence des systèmes. Enfin, deux

facteurs de l’adéquation technologie-tâche sont clairement affectés par la tâche des

utilisateurs: la compatibilité et la facilité d’accès aux données.

Dans notre étude, les items mesurant les tâches non-routinières sont éliminés pour des raisons

de fiabilité des items. Aussi, ce construit a été mesuré uniquement par l’interdépendance des

107 Voir l’annexe n°5_CH6 108 Pour un échantillon de 155 : pour T>=1.96, nous avons un seuil de signification à p < 0.025 et pour T>=2.57, nous avons un seuil de signification à p < 0.005. Voir l’annexe n°5bis_CH6

Page 208: thèse dauphine - nombreux documents chercheurs +

Chapitre6

205

tâches. Les deux facteurs de l’adéquation technologie-tâche affectés sont : la qualité et la

localisation des données (QLD) et la qualité de service offert par les AI (QS).

Nous considérons la tâche des utilisateurs comme étant une variable nominale. Nous

mesurons l’influence de cette variable sur l’adéquation technologie-tâche en utilisant

l’analyse de la variance sous SPSS.10 (dans le chapitre précédent). La tâche de l’utilisateur a

un effet faible sur la qualité et la localisation des données, la compatibilité des données

provenant de différentes sources et la qualité du service des AI. Elle a un effet modéré sur la

pertinence des systèmes.

L’effet des caractéristiques de la technologie sur l’adéquation technologie-tâche:

Goodhue & Thompson ont pris en considération deux variables pour les caractéristiques de la

technologie: “systèmes utilisés” et “département”. Ces deux variables sont significatives

ensemble sur les huit facteurs de l’adéquation technologie-tâche. Le département est

significatif sur l’apprentissage et la facilité d’utilisation. Les systèmes utilisés sont

significatifs sur la localisation des données et la pertinence des systèmes. Dans notre étude,

nous vérifions l’influence de ces deux variables sur l’adéquation technologie-tâche en utilisant

l’analyse de la variance. Le département a un effet modéré sur la qualité des données, la

localisation des données. Il a une liaison forte avec la pertinence des systèmes et la qualité du

service offert par les AI aux utilisateurs 109. Les agents utilisés ont une liaison forte sur leur

qualité de service. Ainsi, ils ont un effet modéré sur la qualité, la localisation des données et la

pertinence des systèmes.

Lors de l’opérationnalisation des caractéristiques de la technologie nous avons pris en compte

les fonctionnalités des AI.

Les fonctionnalités de cette technologie influencent deux variables de l’adéquation

technologie-tâche prises en considération dans notre modèle : la qualité et la localisation des

données, la qualité du service des AI.

Afin de justifier cette influence, nous pensons que les fonctionnalités des AI aide l’utilisateur

à maintenir les éléments nécessaires des données ou à les maintenir au bon niveau de

l’entreprise.

109 Le facteur qualité du service des AI correspond au facteur de la relation de la technologie de l’information avec l’équipe SI dans le modèle initial de Goodhue et Thompson (1995). Lors de la construction du modèle théorique nous avons considéré ce facteur comme étant la mesure de la relation des AI avec les utilisateurs en général mais après une réflexion nous sommes rendus compte que ce facteur mesure la qualité du service offert par les AI aux utilisateurs qui appartiennent à cinq départements différents.

Page 209: thèse dauphine - nombreux documents chercheurs +

Chapitre6

206

En plus, ces fonctionnalités aident l’utilisateur à déterminer quelles sont les données

disponibles et quels sont les éléments des données qui doivent être exclus ou inclus lors de la

recherche.

Enfin, elles ont un grand effet sur la qualité du service offert par les AI, ce-ci peut-être

expliqué par l’interaction évidente entre l’utilisateur et l’agent intelligent. Ceci montre bien

l’intérêt réel des AI pour aider l’utilisateur à résoudre ses problèmes. Cela montre aussi

l’importance du temps d’exécution pour une requête lancée auprès des services des AI, car les

fonctionnalités de cette technologie peut augmenter la disponibilité et la qualité d’assistance

technique des AI.

Hypothèse H2: L’adéquation technologie-tâche (QLD, QS) a un impact positif sur l’intensité

d’utilisation des AI (IU).

L’étude de cette hypothèse nous a conduit à une triple reformulation plus précise : d’une part,

(H41 & H42) la qualité, la localisation des données (QLD)et la qualité du service es AI (QS)

ont un impact positif sur l’intensité d’utilisation des agents intelligents ; d’autre part, (H48) la

caractéristique de tâche (TaC) a un impact positif sur l’intensité d’utilisation des AI (IU)

(Voir tableau 44).

QLD QS

R²=0.302

IU

TaC

3.57**

1.38

1.71

Page 210: thèse dauphine - nombreux documents chercheurs +

Chapitre6

207

Tableau 44. Influence de l’adéquation technologie-tâche (QLD, QS) et de l’interdépendance des tâches (TaC) sur l’intensité d’utilisation des AI (IU)110

(** = 0.005)111

La qualité et la localisation des données, la qualité du service des AI offerte aux utilisateurs et

les caractéristiques de la tâche expliquent 30%112 de la variance de l’intensité d’utilisation

des AI.

La qualité et localisation des données ont un grand effet avec une plage de coefficient de

0.262 par rapport à la caractéristique de la tâche (plage de coefficient = 0.171). Par ailleurs, la

qualité de service de le technologie (plage de coefficient = -0.323) a un effet négatif et non

significatif sur l’intensité d’utilisation des AI.

Si nous nous référons à Goodhue et Thompson, pour démontrer la relation entre l’adéquation

technologie-tâche et l’utilisation, nous retrouvons que leurs résultats fournissent un support

concis pour la relation supposée. Quoique la régression soit intacte et que les plages de

coefficient des trois variables du construit de l’adéquation technologie-tâche soient

statistiquement significatives (qualité du service offert par les AI, rapidité et pertinence des

systèmes), le R² ajusté est égal à 0.02. En plus, la pertinence des systèmes et la qualité du

service offert par les AI ont des plages de coefficients négatives. Ces auteurs ont interprété

leurs résultats en faisant recours aux théories des attitudes et des comportements. Les deux

liens négatifs sont justifiés par le fait que les utilisateurs supposent que les systèmes sont

moins pertinents et leurs relations avec les utilisateurs moins positives.

Ces auteurs ont donné plus d’interprétation dans le cas de l’effet causal des relations (à

travers le mécanisme du feedback). Pour ces auteurs, les individus utilisant ces systèmes pour

de grandes transactions et très dépendants d’eux sont plus frustrés par les moments difficiles

d’utilisation de ces systèmes. Les utilisateurs qui ont une forte dépendance semblent être

bloqués dans leur travail en considérant les systèmes comme étant non pertinents. 110 Voir l’annexe n°5_CH6 111 Voir l’annexe n°5bis_CH6 112 Une part de ce pourcentage vient de ces trois variables (EOUse, PUse, ItouUse)

TaC QLD QS IU 0.171 (H48) 0.262 (H41) -0.323 (H42) Légende : TaC : caractéristique de la tâche. (V8) QLD : qualité et localisation des données. (V1) QS : qualité du service offert par les AI. (V2) IU: intensité d’utilisation des AI. (V4)

Page 211: thèse dauphine - nombreux documents chercheurs +

Chapitre6

208

Similairement, les personnes qui sont très dépendantes des systèmes sont plus frustrées avec

de mauvaises relations avec le département du SI et ils peuvent donner de mauvaises

évaluations concernant ces relations. Ceci est tout à fait différent des nombreux travaux

montrant le lien entre les attitudes de l’utilisateur et l’utilisation (Davis, 1989; Hartwick and

Barki, 1994; Moore and Benbasat, 1992; Thompson et al., 1991), mais uniforme avec des

arguments donnés par Melone (1990) qui souligne les circonstances de l’utilisation

influençant les attitudes.

Le manque de support pour cette proposition est expliqué par le fait que ces auteurs ont

conceptualisé l’utilisation comme la dépendance aux systèmes d’information. Dans notre

étude, nous avons opérationnalisé l’utilisation comme l’intensité ou la fréquence d’utilisation.

En revanche, Goodhue et Thompson ont soulevé des questions sur l’applicabilité des

conceptualisations. Ils ont pensé que la conceptualisation est responsable de ce faible lien

entre l’adéquation technologie-tâche et le comportement. Ils ont trouvé un R² supérieur à 0.10

pour chaque nouvelle régression. Pour chaque cas, le lien le plus fort est entre les croyances

négatives des utilisateurs sur la pertinence des systèmes et leurs relations avec l’équipe du SI.

Ce lien est plus élevé avec l’utilisation. Donc, il est clair que leur conceptualisation n’est pas

responsable du manque de support pour cette proposition.

Nos résultats montrent que la qualité et la localisation des données ont l’effet le plus élevé sur

l’intensité d’utilisation des AI. Nous pouvons expliquer que les participants à ce questionnaire

se sont montrés très dépendants à ces systèmes (l’intensité d’utilisation est élevée) ont

considéré que les systèmes sont pertinents. Ainsi, les données provenant de différents niveaux

hiérarchiques incitent les utilisateurs à s’en servir des AI pour déterminer quelles sont les

données qui sont disponibles et où sont-elles localisées. Donc, nous notons que les besoins

correspondant cette technologie augmentent la fréquence d’utilisation.

Goodhue et Thompson ont donné plus d’explications : un lien direct entre l’adéquation

technologie-tâche et l’utilisation peut ne pas être justifié en général. Pour eux, l’adéquation

technologie-tâche peut ne pas être dominante sur la décision d’utiliser une technologie. En

revanche, d’autres influences venant de la théorie des attitudes et de comportement comme les

habitudes (Ronis et al., 1989), les normes sociales (l’utilisation volontaire) peuvent dominer

dans ces organisations. Cela suggère que le test du lien entre l’adéquation technologie-tâche

et l’utilisation demande beaucoup plus d’attention et de détail d’autres variables à travers la

recherche des attitudes et du comportement.

Page 212: thèse dauphine - nombreux documents chercheurs +

Chapitre6

209

H3: L’Adéquation Technologie-Tâche (QLD, QS) a un effet positif sur l’Acceptation

des Agents Intelligents (Sat, EOUse, PUse, ItoU). L’étude de cette hypothèse génère huit

sous-hypothèses. Par ailleurs, nous avons testé l’effet des caractéristiques de la technologie

(F) sur la facilité d’utilisation des AI (EOUse). (Voir tableau 45)

F

QLD

QS

EOUse

PUse

ItoUse

Sat

R²= 0.620

R²= 0.725

R²= 0.794

R²= 0.468

1.46

0.95

2.88**

6.8**

6.12**

0.64

2.46*

1.18

0.22

Page 213: thèse dauphine - nombreux documents chercheurs +

Chapitre6

210

Tableau 45. Influence de l’Adéquation Technologie-Tâche sur l’Acceptation des AI113 (** = 0.005, * = 0.025)114

La qualité et la localisation des données, la qualité du service offert par les AI et les

fonctionnalités de cette technologie expliquent 62% de la variance de la facilité d’utilisation

des AI. L’effet de la qualité du service offert par les AI est beaucoup plus dominant avec une

plage de coefficient de 0.675 en comparaison avec la qualité et la localisation des données, et

les fonctionnalités des AI. (les plages de coefficients respectives sont 0.127; 0.022).

L’effet de la qualité de service des AI sur les variables de l’acceptation d’une technologie est

plus important que la qualité et la localisation des données. (Voir Tableau 45)

Ce tableau montre que l’effet le plus élevé sur les variables l’acceptation des AI est celui de la

qualité du service offerte par les AI. Cet effet est significatif au seuil de 0.005 entre ces

variables : QS/EOUse ; QS/PUse et QS/Sat.

Les travaux de Goodhue et Thompson méritent plus d’attention sur la généralisation de

l’impact des facteurs spécifiques de l’Adéquation Technologie-Tâche appliqués sur un

échantillon composé de deux firmes. Notre contribution dans cette étude est que notre

échantillon est composé de six secteurs d’activités différents.

Les instruments de l’utilité perçue et de la facilité d’utilisation sont acceptés à travers la

communauté de recherche de Management des Systèmes d’Information comme étant un outil

d’évaluation des applications des systèmes d’information (Doll et al., 1998). Franz & Robey

113 Voir l’annexe n°5_CH6 114 Voir l’annexe n°5bis_CH6

QLD QS F EOUse 0.127 (H51) 0.675 (H52) 0.021 (H59)

PUse 0.144 (H61) 0.626 (H62) Non testée

Sat -0.047 (H31) 0.333 (H32) Non testée

ItoUse -0.086 (H71) 0.224 (H72) Non testée Légende : F : fonctionnalités des AI. (V9) QLD : qualité et localisation des données. (V1) QS : qualité du service offert par les AI. (V2) EOUse: facilité d’utilisation des AI. (V5) PUse: utilité perçue des AI. (V6) Sat : satisfaction des utilisateurs des AI. (V3) ItoUse: intention d’utiliser les AI dans le processus de prise de décision. (V7)

Page 214: thèse dauphine - nombreux documents chercheurs +

Chapitre6

211

(1986), sont intéressés à l’étude de la relation entre l’implication de l’utilisateur, l’utilité

perçue des systèmes, et les facteurs organisationnels. Il existe une influence modérée possible

des facteurs organisationnels sur la relation entre l’implication et l’utilité, ainsi qu’un effet

exogène des facteurs organisationnels sur l’utilité des systèmes.

Dans la littérature nous notons l’importance de l’utilité perçue et sa relation directe ou

indirecte avec d’autres variables. Dans notre étude, nous adoptons le support puissant en

terme de validité et de fiabilité de Davis, en rajoutant la mesure de la satisfaction de

l’utilisateur en tant que variable perceptuelle. Elle indique dans quelle mesure l’utilisateur

croit que l’agent intelligent fournit les besoins en informations.

Beaucoup de recherches se sont concentrées sur la recherche d’une mesure valide de la

satisfaction de l’utilisateur final. Les travaux de Baily and Pearson (1983) ont développé un

instrument différentiel sémantique, avec 39 items afin de mesurer satisfaction des utilisateurs

auprès des ordinateurs. Cette approche a été révisée par Ives et al. (1983) avec un instrument

de 13 items. L’instrument de Doll and Torkzadeh (1988) est composé de 12 items, et qui est

formé de cinq facteurs : contenu de l’information, exactitude, format, facilité d’utilisation, et

la rapidité. Cette approche a été confirmée par ces auteurs en 1994 pour être validée comme

une mesure standardisée de la satisfaction de l’utilisateur en intégrant des applications

spécifiques. Delone et Mclean (1992) ont fourni 6 variables dépendantes majeures qui

contribuent au succès des SI : la qualité du système et de l’information, l’utilisation, la

satisfaction, l’impact individuel, et l’impact organisationnel. Les agents intelligents forment

une technologie spécifique des TSI, ces variables peuvent expliquer la façon de leur

application.

Page 215: thèse dauphine - nombreux documents chercheurs +

Chapitre6

212

H4: L’Acceptation des agents intelligents (EOUse, PUse, ItoU) a un effet positif sur

l’intensité d’utilisation de cette technologie (IU). L’examen de cette hypothèse génère : d’une

trois sous-hypothèses ; d’autres part, six relations entre les variables du modèle de

l’acceptation des AI ont été testées (EOUse/PUse ; EOUse/Sat ; EOUse/ItoU ; PUse/Sat ;

PUse/ItoU ; Sat/ItoU). (Voir tableau 46)

Tableau 46. Influence de l’Acceptation des AI sur l’intensité d’utilisation des AI 115 (** = 0.005, * = 0.025)116

La facilité d’utilisation, l’utilité perçue des AI et la satisfaction des utilisateurs, expliquent

46% de la variance de l’intention d’utiliser les AI dans le processus de prise de décision.

115 Voir l’annexe n°5_CH6 116 Voir l’annexe n°5bis_CH6

EOUse PUse Sat ItoUse

PUse 0.140 (H65)

Sat 0.273 (H35) 0.393 (H36) Non testée

ItoUse 0.032 (H75) 0.296 (H76) 0.240 (H73)

IU -0.343 (H45) -0.176 (H46) Non testée 0.106 (H47)

Légende : EOUse: facilité d’utilisation des AI. (V5) PUse: utilité perçue des AI. (V6) Sat : satisfaction des utilisateurs des AI. (V3) ItoUse: intention d’utiliser les AI dans le processus de prise de décision. (V7) IU: intensité d’utilisation des AI. (V4)

EOUse

Sat

PUse

ItoUse

R²= 0.794

IU

R²= 0.468 R²= 0.302

1.51

1.09

2.31* 4.52**

2.21*

0.23

3.17**

1.52 0.82

Page 216: thèse dauphine - nombreux documents chercheurs +

Chapitre6

213

L’utilité perçue a l’effet le plus élevé avec une plage de coefficient de 0.296 sur l’intention

d’utiliser cette technologie dans le processus de prise de décision. Cet effet est significatif au

seuil de 0.025. La facilité d’utilisation a l’effet le plus faible avec une plage de coefficient de

0.032 sur l’intention d’utiliser les AI. (Voir Tableau 46)

L’effet de la satisfaction et de la facilité d’utilisation des AI n’est pas significatif sur

l’intention d’utilisation de cette technologie. Cela montre que les normes subjectives ne sont

pas importantes dans la compréhension des choix individuels pour utiliser un AI.

Nos résultats montrent que la facilité d’utilisation et l’utilité perçue d’une technologie ont un

impact positif et significatif au seuil de 0.005 sur la satisfaction des utilisateurs et nous

remarquons que ces deux variables freinent l’intensité d’utilisation ; à savoir que l’effet de la

facilité d’utilisation est significatif au seuil de 0.025.

Le test de toutes les hypothèses du modèle intégré (TTF/TAM) sous PLS-Graph, montre

que les décisions prises pour utiliser un AI sont liées à la compréhension des

fonctionnalités et qualité de service offertes par cette technologie d’une part et de leur

adéquation aux besoins perçus des utilisateurs d’autre part.

Page 217: thèse dauphine - nombreux documents chercheurs +

Chapitre6

214

Section 2. Modèles d’Equations Structurelles : Analyse des effets linéaires Dans la première section nous avons testé les relations de tout le modèle global théorique en

utilisant le logiciel PLS-Graph. Cette analyse a permis de filtrer les relations qui n’ont pas de

sens entre les variables latentes. Sur la base de cette analyse nous proposons deux modèles

testés sur le logiciel AMOS 4. pour montrer la significativité des relations.

1. Premier Modèle de l’Adéquation Technologie-Tâche : Démarche méthodologique117

1.1. Elaboration et spécification

Le premier modèle d’équations structurelles repose sur l’articulation de deux types de

modèles : le modèle de mesure et le modèle de relations linéaires. Ces deux modèles forment

le modèle global de l’Adéquation Technologie-Tâche (Figure 41).

Le modèle de mesure représente les relations linéaires supposées entre les variables latentes et

leurs indicateurs :

- Première variable latente : La qualité et la localisation des données (QLD)118 : Cette

variable est mesurée par ces indicateurs : item3, item5, item6, item7, item8, item9 et

item10.

- Deuxième variable latente : La qualité du service offert par les AI (QS) : Cette

variable est mesurée par ces indicateurs : item21, item22, item23 et item25.

- Troisième variable latente : La satisfaction des utilisateurs de la technologie des AI

(Sat) : Cette variable est mesurée par ces indicateurs : item38, item39, item40 et

item41.

- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est

mesurée par ces indicateurs : item57 et item58.

Ce modèle résulte, à la fois, de l’analyse factorielle en composantes principales présentée

dans le chapitre 5 et de l’Analyse Factorielle Confirmatoire (en utilisant le logiciel PLS-

117 Nous avons suivi la méthodologie détaillée dans l’ouvrage de Roussel, Durrieu, Compoy et El Akremi (2002) 118 Cette variable (QLD) représente deux variables latentes (QD et LD) séparées lors des traitements statistiques réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du modèle sous PLS Graph et AMOS 4.

Page 218: thèse dauphine - nombreux documents chercheurs +

Chapitre6

215

Graph) qui a été présentée dans la section 1 de ce chapitre sur le test des échelles du

questionnaire d’enquête. Dans le modèle de mesure, on observe que chaque variable latente

est reliée aux indicateurs par un lien. Ce dernier est en réalité la contribution factorielle

estimée par l’AFC. Chacun de ces items a fait l’objet d’une étude théorique lors de

l’élaboration de l’échelle du questionnaire servant à obtenir une mesure du concept. On peut

observer aussi que le processus d’estimation intègre une erreur de mesure pour chaque

indicateur (ei119).

Quand au modèle structurel, il représente l’ensemble des relations linéaires supposées entre

les variables latentes (QLD, QS, Sat et IU). Il figure le système d’hypothèses élaboré pour

tenter d’expliquer un phénomène observé. Signalons que la lettre Dj désigne l’erreur de

mesure estimée d’une variable latente à expliquer.

La spécification d’un modèle consiste à déterminer les différents paramètres qui devront être

estimés : coefficients de régression, de corrélations, de covariances, contributions factorielles,

erreurs de mesure. En pratique, la spécification de ce premier modèle théorique s’opère en

deux étapes. La première est graphique. Elle consiste à représenter les différentes variables

latentes et les paramètres du modèle, ainsi que les relations linéaires et de mesure du modèle

global. La seconde correspond à la saisie d’informations dans le logiciel.

L’étape de spécification de ce modèle a été complexe pour le concepteur. Des difficultés sont

aperçues lors du choix de l’élimination des indicateurs de mesure des variables latentes.

119 ei : erreur de mesure pour chaque indicateur (i pour désigner l’item)

Page 219: thèse dauphine - nombreux documents chercheurs +

Chapitre6

216

Figure 41. Présentation du modèle de l’Adéquation Technologie Tâche conçue par AMOS 4.120

120 Ce modèle présenté a subi les modifications nécessaires pour avoir un « bon » ajustement du modèle global. Nous remercions Monsieur le Professeur B. Goldfarb pour son aide précieuse au niveau de la spécification et la finalisation des deux modèles.

QLD

ITEM10e10

1

1

ITEM9e9

ITEM8e8

ITEM7e7

ITEM6e6

ITEM5e5

ITEM3e3

QSITEM25e25

1

ITEM23e23

Item21e211

IU

Item57

e57

1

1

Item58

e58

D41

Sat

Item41

e41

1

1Item40

e40

1Item39

e39

1Item38

e38

1

D31

Item22e22

1

1

1

1

1

1

1

1

1

1

Page 220: thèse dauphine - nombreux documents chercheurs +

Chapitre6

217

QS QLD Sat IU Sat 0,919 0,000 0,000 0,000 IU 0,805 0,298 -0,609 0,000

ITEM58 0,000 0,000 0,000 1,040 ITEM22 0,820 0,000 0,000 0,000 ITEM38 0,000 0,000 0,730 0,000 ITEM39 0,000 0,000 0,757 0,000 ITEM40 0,000 0,000 0,781 0,000 ITEM41 0,000 0,000 0,918 0,000 ITEM57 0,000 0,000 0,000 0,585 ITEM21 0,656 0,000 0,000 0,000 ITEM23 0,865 0,000 0,000 0,000 ITEM25 0,762 0,000 0,000 0,000 ITEM3 0,000 0,779 0,000 0,000 ITEM5 0,000 0,722 0,000 0,000 ITEM6 0,000 0,748 0,000 0,000 ITEM7 0,000 0,840 0,000 0,000 ITEM8 0,000 0,733 0,000 0,000 ITEM9 0,000 0,821 0,000 0,000

ITEM10 0,000 0,847 0,000 0,000 Tableau 47. Matrice de l’estimation des effets directs standardisés 121

1.2. Estimation du modèle théorique

A ce stade, il faut choisir la procédure d’estimation du modèle qui est nécessaire pour estimer

l’ensemble des paramètres. Nous avons choisi la méthode du maximum de vraisemblance.

« C’est une méthode itérative qui détermine les estimations finales des paramètres à travers

une recherche numérique à partir d’une solution de base fournie par la méthode TSLS (Two

Stage Least Squares) »122 (Akrout, 2005). C’est une méthode qui est devenue populaire dans

l’estimation des modèles de structure intégrant des variables latentes.

1.3. Identification du modèle théorique

L’identification d’un modèle théorique signifie qu’il est possible de trouver une solution

unique. Il est possible d’établir une estimation unique de chaque paramètre (coefficients de

régression, de covariance, de régression, contributions factorielles). Lors de l’identification de

notre premier modèle nous avons rencontrer des problèmes liés à son niveau de complexité en

121 Cette matrice est présentée sous forme de graphique dans l’annexe n°6_CH6. 122 Cette méthode est définie par le Pr. F. Akrout dans un document préparé et présenté dans un programme de formation destiné aux enseignants de la Faculté de Sciences Juridiques, Economiques et de Gestion de Jendouba (23-24-26 Juin 2005)

Page 221: thèse dauphine - nombreux documents chercheurs +

Chapitre6

218

raison de l’apparition de solutions alternatives défendables tant du point de vue métrique que

théorique (Hair et al., 1998). Pour parvenir à l’identification de ce modèle, deux conditions

doivent être réunies :

- La première est qu’il y ait au moins autant d’observations dans la base de données

(155 observations) que de paramètres à estimer. Le fait de diviser notre modèle

théorique initial en deux modèles est expliqué par la taille de l’échantillon. Plus le

nombre de variables latentes et d’indicateurs est grand, plus la taille de l’échantillon

doit être grande. Le choix d’une procédure d’estimation détermine la taille d’un

échantillon. Des tailles minimales de cent à cent cinquante individus peuvent être

traitées par la méthode d’estimation la plus courante du maximum de vraisemblance.

- La deuxième renvoie aux problèmes des degrés de liberté123. Ces derniers

représentent l’écart entre le nombre de corrélations ou de covariances potentielles et

estimées. Ils peuvent se définir comme les coefficients non estimés d’un modèle

(Roussel et al. 2002)

L’un des problèmes majeurs de la sous-identification relève de la mesure des variables

latentes. Trois indicateurs par variable latente permet d’obtenir des estimations uniques (Hair

et al., 1998). Pour la mesure de chaque variable latente, nous avons fixé le premier paramètre

à 1 (la contribution factorielle de son premier indicateur est égal à 1). Avec cette solution, on

établit un indicateur de référence qui servira de valeur étalon pour la métrique des variables

latentes (Roussel et al., 2002). En fixant ces paramètres, le risque de sous identification du

modèle sera réduit.

1.4. Interprétation des résultats

L’interprétation des résultats intervient suite à l’estimation du modèle théorique et à son

identification. Elle a pour objectif d’évaluer la qualité de l’ajustement du modèle aux données.

123 df =ddl = ½ [ (p + q) (p + q + 1)] – t. où : ddl = degrés de liberté (df = « degrees of freedom ») p = nombre d’indicateurs des variables latentes à expliquer q = nombre d’indicateurs de variables latentes explicatives t = nombre de coefficients estimés dans le modèle théorique.

Page 222: thèse dauphine - nombreux documents chercheurs +

Chapitre6

219

1.4.1. La qualité de l’ajustement du premier modèle aux données

Un bon ajustement est une condition pour procéder à l’interprétation des résultats.

L’ajustement est évalué successivement pour : le modèle global, le modèle de mesure et le

modèle structurel.

1.4.1.1. L’ajustement du modèle global

Pour faire l’ajustement du modèle global, il faut faire appel à plusieurs indices aux

caractéristiques différentes. Ces indices seront présentés sous forme du tableau 48. Ce dernier

présente les valeurs clés admises des principaux indices d’ajustement (Roussel et al., 2002),

ainsi que les propres valeurs du premier modèle testé :

Indices Valeur Clé Valeur admise liée au premier modèle global

Indices absolus �� Aucune. 218,8 GFI et AGFI > 0,9 GFI = 0,852 ; AGFI = 0,778 RMR La plus proche de 0. 0,095 RMSEA < 0,08 et si possible < 0,05. 0,086 Indices incrémentaux NFI > 0,9 0,892 IFI > 0,9 0,939 CFI > 0,9 0,938 Indices de parcimonie ��� normé (ddl =102) La plus faible entre 1 et 2 ou

3. 2,146

AIC, CAIC et ECVI La plus faible possible (comparaison).

AIC = 320,850 CAIC = 527,064 ECVI = 2,083

PNFI et PGFI La plus forte possible (comparaison).

PNFI = 0,699 PGFI = 0,593

Tableau 48. Ajustement et pouvoir explicatif du 1er modèle 124

1.4.1.2. L’ajustement du modèle de mesure

L’estimation du modèle de mesure sépare trois types d’analyse :

- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par

la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité

composite par construit). Nous avons montré que la fiabilité de cohérence interne de

124 Pour plus d’indices d’ajustement du modèle global voir l’annexe n°6.1._CH6. Les principaux indices absolus sont commentés dans l’annexe n°6.2._CH6. La définition des indices d’ajustement du modèle global est présentée dans le même annexe.

Page 223: thèse dauphine - nombreux documents chercheurs +

Chapitre6

220

chaque construit du modèle théorique initial est bonne si la valeur de rhô (�) est

supérieure à 0,8 (Fornell et Larker, 1981).

- La validité des construits : Pour apprécier la validité des construits, nous avons tenu

compte de la validité convergente et la validité discriminante.

La validité convergente existe quand deux mesures différentes d’un même concept sont

fortement corrélées. Pour mesurer la validité convergente, nous adoptons l’approche de

Anderson et Gerbing (1988)125 qui consiste à vérifier la significativité de la contribution

« loading » de chaque indicateur à la mesure du construit. Par référence au tableau suivant, on

peut remarquer que tous les liens de régression entre la variable latente et ses mesures sont

significatifs. Les valeurs de C.R. sont supérieures à 1,79. En cas de liens non significatifs, la

validité convergente ne peut être atteinte que si on élimine l’item dont la relation avec son

construit n’est pas significative (cette étape a été vérifiée aussi lors de la section 1 du chapitre

6).

Estimate S.E. C.R. P ITEM10 <-- QLD 1 ITEM9 <-- QLD 0,855 0,068 12,665 0 ITEM8 <-- QLD 0,79 0,078 10,185 0 ITEM7 <-- QLD 1,029 0,094 10,908 0 ITEM6 <-- QLD 0,741 0,073 10,116 0 ITEM5 <-- QLD 0,792 0,082 9,72 0 ITEM3 <-- QLD 0,886 0,083 10,655 0

ITEM25 <-- QS 1 ITEM23 <-- QS 1,489 0,132 11,308 0 ITEM21 <-- QS 1,632 0,196 8,344 0 ITEM57 <-- IU 1 ITEM41 <-- Sat 1 ITEM40 <-- Sat 0,782 0,062 12,634 0 ITEM39 <-- Sat 0,806 0,067 11,997 0 ITEM38 <-- Sat 0,811 0,08 10,103 0 ITEM22 <-- QS 1,674 0,162 10,312 0 ITEM58 <-- IU 1,861 0,387 4,807 0

Tableau 49. Regression Weights

Cette méthode a été critiquée par Steekamp et Tripp (1991)126 du fait qu’il faut associer à ce

critère de significativité des contributions factorielles : celui de la variance moyenne extraite.

125 Anderson, J.C. and Gerbing, D.W. (1988), « Structural equation modeling in practice : a review and recommended two-step approach”, Psychological Bulletin, Vol. 103 N°. 4, pp. 411-23. 126 Steenkamp J.B.E.M. et H.C.V. Trijp (1991): «The use of Lisrel in validating Marketing Constructs », International Journal of Research in Marketing, Vol. 8, pp. 283-299.

Page 224: thèse dauphine - nombreux documents chercheurs +

Chapitre6

221

Il doit être supérieur à 0,5 (Fornell et Larker, 1981)127. Ce critère a été vérifié aussi lors du

traitement des données sous PLS-Graph (Section 1 du chapitre 6). Ce critère indique que

chaque indicateur lié à une variable latente partage plus de variance avec elle qu’avec d’autres

construits. Le tableau suivant montre la valeur de la variance moyenne extraite pour chaque

construit :

Estimate AVE 0,615

ITEM10 <-- QLD 0,84 ITEM9 <-- QLD 0,816 ITEM8 <-- QLD 0,727 ITEM7 <-- QLD 0,836 ITEM6 <-- QLD 0,752 ITEM5 <-- QLD 0,729 ITEM3 <-- QLD 0,783

0,596 ITEM25 <-- QS 0,758 ITEM23 <-- QS 0,851 ITEM21 <-- QS 0,656 ITEM22 <-- QS 0,811

0,640 ITEM41 <-- Sat 0,925 ITEM40 <-- Sat 0,776 ITEM39 <-- Sat 0,753 ITEM38 <-- Sat 0,732

0,715 ITEM57 <-- IU 0,585 ITEM58 <-- IU 1,043

Tableau 50. AVE et Coefficients de régression standardisés 128

La validité discriminante a été vérifiée dans la première section de ce chapitre. C’est une

méthode qui consiste à vérifier si la variance moyenne extraite pour chacun des deux

construits est plus grande que le (�²)129 de ces deux construits (Fornell et Larker, 1981).

QLD QS Sat IU QLD AVE = 0,615/

� = 0,93

QS (0,861)²= 0,74

AVE = 0,596/ � = 0,81

127 Claes Fornell et David F Larcker (1981), « Evaluating structural equation models with unobservable variables and measure… », Journal of Marketing Research, Feb 18, pp. 39-51. 128 Voir Annexe 6. 3. _CH6 129 � : « Phi » indique la relation de symétrie entre deux variables latentes explicatives de type covariance.

Page 225: thèse dauphine - nombreux documents chercheurs +

Chapitre6

222

Sat (0,714)²= 0,50

(0,938)²= 0,87

AVE = 0,640/ � = 0,87

IU (0,518)²= 0,26

(0,494)²= 0,24

(0,345)²= 0,11

AVE = 0,715/ � = 0,75

Tableau 51. Matrice des fiabilités et des liens structurels130.

L’utilisation de cette approche n’est pas perçue dans nos travaux (C’est le cas de l’AVE de la

variable QLD et son lien structurel avec la variable QS avec un �²= 0,74, et c’est le cas de

l’AVE de la variable Sat et son lien structurel avec la variable QS avec un �²= 0,87). C’est

pourquoi, nous nous basons sur � de cronbach. Nous notons que les liens structurels élevés au

carré sont inférieurs aux valeurs de alpha de cronbach, ce qui permet de retenir la validité

discriminante.

- L’ajustement du modèle de mesure : Les indices incrémentaux sont utilisés pour

confronter les modèles concurrents et signaler celui qui présente le meilleur

ajustement relatif. Cette analyse a été faite lors de la spécification et de la fixation du

modèle de mesure final.

1.4.1.3. L’ajustement du modèle structurel

L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que

les relations linéaires entre les variables latentes désignées par les coefficients structurels sont

statistiquement différentes de zéro. Le logiciel AMOS.4 propose un test t de Student, le même

évoqué précédemment pour évaluer la validité convergente. Vu qu’on dispose de 155

observations, il est recommandé de choisir un seuil de signification de 2,5%. Dans ce cas, la

valeur de t doit être supérieur à 1,96. (Roussel et al., 2002)

Estimate S.E. C.R. P Sat <-- QS 1,195 0,108 11,109 0,000 IU <-- QLD 0,126 0,068 1,845 0,065 IU <-- QS 0,575 0,267 2,151 0,032 IU <-- Sat -0,335 0,169 -1,980 0,048

Tableau 52. Coefficients de Régression

Enfin, il est recommandé d’analyser pour chacune des variables latentes dépendantes le

pourcentage de variance expliquée. Le logiciel AMOS. 4 produit automatiquement cet indice.

(Voir le tableau 53). Plus le résultat est élevé, plus on peut considérer que la variable

130 Voir Annexe 6. 4._CH6 et 6. 5._CH6.

Page 226: thèse dauphine - nombreux documents chercheurs +

Chapitre6

223

endogène (dépendante) est bien expliquée par les autres variables qui lui sont associées.

(Roussel et al. 2002)

Estimate Sat 0,845 IU 0,327 Tableau 53. Squared Multiple Correlations

La variable satisfaction est bien expliquée par les variables qui lui sont associées (Qualité de

service) alors que la variable intensité d’utilisation des AI est faiblement expliquée par les

autres variables (Qualité et localisation des données, Qualité de service et satisfaction des

utilisateurs).

1.4.2. Résolution du modèle d’équations structurelles

Pour résoudre un modèle d’équations structurelles, la méthode de Jöreskog et Sörbom est

appropriée à ce cas de figure. Elle repose sur le principe de l’élimination progressive des

relations non significatives. Cette méthode se compose de six étapes (Roussel et al., 2002) :

- Vérifier la signification des corrélations entre les variables latentes à expliquer ;

- Test 1 : Tester si les variables à expliquer ont toutes les variables explicatives

comme causes communes ;

- Test 2 : Tester si une première variable à expliquer influence l’autre variable

expliquée ;

- Test 3 : Tester si une seconde variable à expliquer influence l’autre variable

expliquée ;

- Test 4 : Tester si les deux variables à expliquer s’influencent réciproquement ;

A l’issue de ces quatre tests, retenir comme modèle celui qui a le meilleur ajustement aux

données à l’issue du test des quatre hypothèses citées ci-dessus.

1.4.2.1. La corrélation entre les variables latentes expliquées

Dans notre cas pratique, le premier modèle conçu sur l’adéquation technologie-tâche (Voir

Annexe n°6_CH 6) désigne les relations à tester : d’une part, entre les variables indépendantes

de la qualité et la localisation des données (QLD) et la qualité de service offerte par les AI

(QS), d’autre part, les variables dépendantes de la satisfaction des utilisateurs (Sat) et

l’intensité d’utilisation des AI (IU). L’Annexe n°6_CH 6 nous présente les corrélations

Page 227: thèse dauphine - nombreux documents chercheurs +

Chapitre6

224

significatives entre les indicateurs des variables à expliquer. Celles observées entre les deux

indicateurs de l’intensité d’utilisation Y1131 (0,34) et Y2 (1,08). Les indicateurs de la

satisfaction des utilisateurs de cette technologie sont également positives et significatives

respectivement avec Y3 (0,53), Y4 (0,57), Y5 (0,61) et Y6 (0,84).

Ces deux variables latentes dépendantes (Sat et IU) étant liées statistiquement, ce résultat

permet de tester les hypothèses 1 à 4.

1.4.2.2. Test 1

Ce test consiste à valider ou infirmer la proposition suivante : si les variables expliquées � ont

toutes les variables explicatives � comme causes communes. Ce test nécessite de mettre en

relation chaque variable à expliquer avec toutes les variables explicatives. Si la corrélation

partielle entre �4 (0,33) et �3 (0,85) est de zéro, ce qui n’est pas le cas et que les variables

dépendantes sont reliées aux variables indépendantes, l’hypothèse 1 est vérifiée. Alors les

variables à expliquer �4 et �3 auront indépendamment les mêmes causes. Dans ce cas le test 1

invalide la proposition sus-mentionnée : les variables explicatives ne sont pas toutes des

causes communes aux variables à expliquer, il est possible de tester les hypothèses suivantes.

1.4.2.3. Test 2

Le test 2 consiste à valider ou invalider la proposition suivante : la variable expliquée

Satisfaction des utilisateurs �3 influence la seconde variable expliquée Intensité d’utilisation

des AI �4.

Dans ce modèle, la Satisfaction des utilisateurs �3 a un effet négatif et significatif sur

l’intensité d’utilisation des AI �4 (132 = - 0,61 ; t = -1,980). Elle est également associée à la

qualité de service offert par les AI de manière positive et significative (133 = 0, 92 ; t =

11,109). Aucune autre variable explicative n’est reliée significativement à �3. Concernant

l’intensité d’utilisation, la qualité et la localisation des données (QLD) et la qualité du service

offert par les AI (QS), elles sont associés positivement à l’intensité d’utilisation. La variable

QLD a un lien non significatif avec l’intensité d’utilisation (t = 1,845) alors que le lien entre

la variable QS et IU est significatif (t = 2,151).

131 Y : Indicateur des variables latentes à expliquer ; X : indicateur des variables latentes explicatives. 132 : « Bêta » indique la relation linéaire entre deux variables latentes à expliquer. Dans notre cas, cette relation est linéaire non réciproques entre Sat et IU. Cette relation est dite récursive ou asymétrique. 133 : « Gamma » indique la relation d’asymétrie correspondant à une relation linéaire ou structurelle entre une variables latente explicative et une variables latente expliquée.

Page 228: thèse dauphine - nombreux documents chercheurs +

Chapitre6

225

1.4.2.4. Test 3

Ce test aurait permis de valider ou infirmer la proposition suivante : la variable expliquée IU

�4 influence l’autre variable expliquée de la Satisfaction des utilisateurs �3.

Dans notre cas cette relation a été éliminée lors de la re-spécification de ce modèle. Cette

élimination est due au fait que l’intensité de l’utilisation n’a statistiquement pas de lien avec la

satisfaction des utilisateurs.

1.4.2.5. Test 4

Ce dernier test cherche à vérifier ou infirmer la proposition selon laquelle les deux variables

expliquées s’influencent réciproquement. Nous n’avons pas testé cette proposition parce que

les deux variables dépendantes (Sat et IU) sont liées par une relation linéaire non réciproque.

En résumé, la qualité et la localisation des données a un effet positif mais non significatif

sur l’intensité d’utilisation des AI.

La qualité de service a un effet positif et significatif sur l’intensité d’utilisation et sur la

satisfaction des utilisateurs.

La satisfaction des utilisateurs influencerait négativement l’intensité d’utilisation des AI.

2. Deuxième Modèle de l’Acceptation d’une Technologie : Démarche méthodologique

2.1. Elaboration, Spécification, estimation et identification du modèle

Dans cette sous-section nous présentons directement l’interprétation des résultats et la

résolution du deuxième modèle d’équations structurelles. Les trois premières étapes

concernant l’élaboration, la spécification du modèle, son estimation et son identification

seront présentées brièvement puisque nous avons suivi la même démarche appliquée dans le

premier modèle.

Le deuxième modèle d’équations structurelles repose sur l’articulation de deux types de

modèles : le modèle de mesure et le modèle structurel. Ces deux modèles forment le modèle

global de l’Acceptation de la Technologie des AI (Figure 42).

Page 229: thèse dauphine - nombreux documents chercheurs +

Chapitre6

226

Le modèle de mesure représente les relations linéaires supposées entre les variables latentes134

et leurs indicateurs :

- Troisième variable latente : La satisfaction des utilisateurs de la technologie des AI

(Sat) : Cette variable est mesurée par ces indicateurs : item38, item39, item40 et item41.

- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est

mesurée par ces indicateurs : item57 et item58.

- Cinquième variable latente : La facilité d’utilisation des AI (EOUse) : Cette variable

est mesurée par ces indicateurs : item31, item32, item35, item36.

- Sixième variable latente : L’utilité perçue des AI (PUse)135 : Cette variable est

mesurée par ces indicateurs : item42, item43, item45, item46 et item47.

- Septième variable latente : L’intention d’utiliser cette technologie dans le processus

de prise de décision (ItoUse) : cette variable est mesurée par ces deux indicateurs :

item48 et item49.

L’élaboration et la spécification de ce modèle résultent à la fois de l’analyse factorielle en

composantes principales présentée dans le chapitre 5 et de l’Analyse Factorielle

Confirmatoire (en utilisant le logiciel PLS-Graph) qui a été présentée dans la section 1 de ce

chapitre sur le test des échelles du questionnaire d’enquête.

134 Nous avons gardé l’ordre de numérotation des variables latentes par rapport au premier modèle de l’Adéquation Technologie Tâche. 135 Cette variable (PUse) représente deux variables latentes (P et JQ) séparées lors des traitements statistiques réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du modèle sous PLS et AMOS 4.

Page 230: thèse dauphine - nombreux documents chercheurs +

Chapitre6

227

EOUse

Item36

e36

1

Item35

e35

Item32

e32

Item31

e31

PUse

Item47

e47

1

1

Item46

e46

1

Item45

e45

Item43

e43

1

Item42

e42

IU

Item57

e571

Item58

e581

D6

D41

Sat

Item38

e38

1

Item39

e39

Item40

e40

1

Item41

e41

1

D3

ItoUse

Item48

e48

1

1

Item49

e49

1

D7

1

11

1

1

1

1 1 1 1 1 1

Figure 42. Présentation du modèle de l’Acceptation d’une Technologie conçue par AMOS 4.

Page 231: thèse dauphine - nombreux documents chercheurs +

Chapitre6

228

EOUse PUse Sat ItoUse IU PUse 0,734 0,000 0,000 0,000 0,000 Sat 0,423 0,609 0,000 0,000 0,000

ItoUse 0,023 0,123 0,672 0,000 0,000 IU -0,040 -0,007 0,000 0,315 0,000

ITEM42 0,000 0,945 0,000 0,000 0,000 ITEM35 0,776 0,000 0,000 0,000 0,000 ITEM45 0,000 0,924 0,000 0,000 0,000 ITEM32 0,816 0,000 0,000 0,000 0,000 ITEM49 0,000 0,000 0,000 0,776 0,000 ITEM48 0,000 0,000 0,000 0,761 0,000 ITEM41 0,000 0,000 0,857 0,000 0,000 ITEM40 0,000 0,000 0,794 0,000 0,000 ITEM39 0,000 0,000 0,764 0,000 0,000 ITEM38 0,000 0,000 0,756 0,000 0,000 ITEM58 0,000 0,000 0,000 0,000 1,608 ITEM57 0,000 0,000 0,000 0,000 0,379 ITEM43 0,000 0,978 0,000 0,000 0,000 ITEM46 0,000 0,711 0,000 0,000 0,000 ITEM47 0,000 0,829 0,000 0,000 0,000 ITEM31 0,889 0,000 0,000 0,000 0,000 ITEM36 0,880 0,000 0,000 0,000 0,000

Tableau 54. Matrice de l’estimation des effets directs standardisés 136

2.2. Interprétation des résultats

Afin d’interpréter les résultats. Il faut évaluer la qualité de l’ajustement de ce modèle aux

données.

2.2.1. La qualité de l’ajustement du deuxième modèle aux données

L’ajustement est évalué successivement pour : le modèle global, le modèle de mesure et le

modèle structurel.

2.2.1.1. L’ajustement du modèle global

Pour faire l’ajustement du modèle global, il faut se baser sur plusieurs indices aux

caractéristiques différentes. Ces indices seront présentés sous la forme du tableau suivant.

136 Cette matrice est présentée sous forme de graphique dans l’annexe n°7_CH6.

Page 232: thèse dauphine - nombreux documents chercheurs +

Chapitre6

229

Le tableau 55 présente les valeurs clés admises : les principaux indices d’ajustement (Roussel

et al., 2002), ainsi que les propres valeurs du deuxième modèle testé :

Indices Valeur Clé Valeur admise liée au premier modèle global Indices absolus �� Aucune. 250,8 GFI et AGFI > 0,9 GFI = 0,856; AGFI = 0,793 RMR La plus proche de 0. 0,054 RMSEA < 0,08 et si possible <

0,05. 0,094

Indices incrémentaux NFI > 0,9 0,897 IFI > 0,9 0,938 CFI > 0,9 0,938 Indices de parcimonie ��� normé (ddl =106)

La plus faible entre 1 et 2 ou 3.

2,366

AIC, CAIC et ECVI

La plus faible possible (comparaison).

AIC = 344,826 CAIC = 534,867 ECVI = 2,239

PNFI et PGFI La plus forte possible (comparaison).

PNFI = 0,699 PGFI = 0,593

Tableau 55. Ajustement et pouvoir explicatif du 2ème modèle 137

2.2.1.2. L’ajustement du modèle de mesure

Pour estimer le modèle de mesure, nous citons trois types d’analyse :

- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par

la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité

composite par construit). Nous avons montré que la fiabilité de cohérence interne de

chaque construit du modèle théorique initial est bonne si la valeur de rhô (�) est

supérieure à 0,8 (Fornell et Larker, 1981).

- La validité des construits : L’évaluation de la validité des construits consiste à

vérifier la validité convergente et la validité discriminante.

Rappelons que la validité convergente existe quand deux mesures différentes d’un même

concept sont fortement corrélées. Le tableau 56 montre tous les liens de régression entre la

variable latente et ses mesures sont significatifs. Les valeurs de C.R. sont supérieures à 1,79.

En cas de liens non significatifs, la validité convergente ne peut être atteinte que si on élimine

l’item dont la relation avec son construit n’est pas significative. C’est le cas de l’item 58

137 Pour plus d’indices d’ajustement du modèle global voir l’annexe n°7. 1._CH6

Page 233: thèse dauphine - nombreux documents chercheurs +

Chapitre6

230

mesurant l’intensité d’utilisation des AI qui n’a pas une relation significative. Pour atteindre

cette validité, il faut normalement l’éliminer. Nous l’avons gardé pour tester la relation de la

variable de l’intensité avec les autres variables du modèle.

Estimate S.E. C.R. P ITEM36 <-- EOUse 1 ITEM31 <-- EOUse 0,984 0,07 14,148 0 ITEM47 <-- PUse 1 ITEM38 <-- Sat 1 ITEM39 <-- Sat 0,976 0,098 9,927 0 ITEM40 <-- Sat 0,956 0,092 10,394 0 ITEM41 <-- Sat 1,106 0,097 11,366 0 ITEM48 <-- ItoUse 1 ITEM49 <-- ItoUse 0,915 0,106 8,659 0 ITEM32 <-- EOUse 0,953 0,079 12,14 0 ITEM58 <-- IU 4,432 3,315 1,337 0,181 ITEM57 <-- IU 1 ITEM45 <-- PUse 1,24 0,08 15,536 0 ITEM43 <-- PUse 1,163 0,068 17,023 0 ITEM46 <-- PUse 0,764 0,074 10,283 0 ITEM35 <-- EOUse 0,911 0,057 16,011 0 ITEM42 <-- PUse 1,134 0,071 15,876 0

Tableau 56. Regression Weights

Le critère de significativité des contributions factorielles a été associé à la variance moyenne

extraite. Il doit être supérieur à 0,5 (Fornell et Larker, 1981). Ce critère a été vérifié aussi lors

du traitement des données sous PLS-Graph (Section 1 du chapitre 6).

Le tableau 57 montre la valeur de la variance moyenne extraite par chaque construit :

Estimate AVE 0,708

ITEM36 <-- EOUse 0,88 ITEM31 <-- EOUse 0,889 ITEM32 <-- EOUse 0,816 ITEM35 <-- EOUse 0,776

0,779 ITEM47 <-- PUse 0,829 ITEM45 <-- PUse 0,924 ITEM43 <-- PUse 0,978 ITEM46 <-- PUse 0,711 ITEM42 <-- PUse 0,945

0,630 ITEM38 <-- Sat 0,756 ITEM39 <-- Sat 0,764

Page 234: thèse dauphine - nombreux documents chercheurs +

Chapitre6

231

ITEM40 <-- Sat 0,794 ITEM41 <-- Sat 0,857

0,591 ITEM48 <-- ItoUse 0,761 ITEM49 <-- ItoUse 0,777

1,367 ITEM58 <-- IU 1,61 ITEM57 <-- IU 0,379

Tableau 57. AVE et Coefficients de régression standardisés 138

La validité discriminante est une méthode qui consiste à vérifier si la variance moyenne

extraite (AVE) par chacun des deux construits est plus grande que le (�)² de ces deux

construits (Fornell et Larker, 1981).

EOUse PUse Sat IU ItoUse EOUse AVE =

0,708/ � = 0,91

PUse (0,734)²= 0,538

AVE = 0,779/ � = 0,94

Sat (0,870)²= 0,756

(0,919)²= 0,844

AVE = 0,630/ � = 0,87

IU (0,174)²= 0,030

(0,201)²= 0,040

(0,212)²= 0,044

AVE = 1,367/ � = 0,75

ItoUse (0,698)²= 0,487

(0,758)²= 0,574

(0,805)²= 0,648

(0,281)²= 0,078

AVE= 0,591/ � = 0,74

Tableau 58. Matrice des fiabilités et des liens structurels 139

L’utilisation de l’approche de la comparaison de l’AVE avec la valeur des liens structurels

(�) n’est pas constatée dans nos travaux (C’est le cas de l’AVE de la variable ItoUse et son

lien structurel avec la variable Sat avec un �²= 0,648 ; c’est le cas aussi de l’AVE de la

variable PUse et son lien structurel avec la variable Sat avec un �²= 0,844). Nous avons

comparé � de cronbach avec les liens structurels. Comme on peut le remarquer, les liens

structurels élevés au carré sont inférieurs aux valeurs de alpha de cronbach, ce qui permet de

retenir la validité discriminante.

- L’ajustement du modèle de mesure : Nous avons utilisé les indices incrémentaux

pour confronter les modèles concurrents et signaler celui qui présente le meilleur

ajustement relatif. Cette analyse a été faite lors de la spécification et du choix du

modèle de mesure final.

138 Voir Annexe 7. 2._CH6 139 Voir Annexe 7. 3._CH6 et 6. 5._CH6.

Page 235: thèse dauphine - nombreux documents chercheurs +

Chapitre6

232

2.2.1.3. L’ajustement du modèle structurel

L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que

les relations linéaires entre les variables latentes désignées par les coefficients structurels sont

statistiquement différentes de zéro. Dans ce cas, la valeur de t doit être supérieure à 1,96.

(Roussel et al., 2002).

Estimate S.E. C.R. P PUse <-- EOUse 0,679 0,072 9,367 0,000 Sat <-- EOUse 0,399 0,067 5,911 0,000 Sat <-- PUse 0,621 0,083 7,527 0,000

ItoUse <-- EOUse 0,025 0,258 0,097 0,923 ItoUse <-- Sat 0,777 0,553 1,406 0,160 ItoUse <-- PUse 0,146 0,36 0,405 0,686

IU <-- PUse -0,003 0,036 -0,088 0,930 IU <-- ItoUse 0,115 0,103 1,118 0,264 IU <-- EOUse -0,016 0,033 -0,491 0,623

Tableau 59. Coefficients de Régression

Ce tableau montre les relations testées non significatives entre ces variables et dont la valeur

du C.R. n’atteint pas 1,96 :

ItoUse <-- EOUse ItoUse <-- Sat ItoUse <-- PUse

IU <-- PUse IU <-- ItoUse IU <-- EOUse

Tableau 60. Présentation des relations non significatifs du 2ème modèle

Enfin, nous présentons dans le tableau 61 le pourcentage de variance expliquée pour chacune

des variables latentes dépendantes. Le logiciel AMOS. 4 produit automatiquement cet indice.

Plus le résultat est élevé, plus on peut considérer que la variable endogène (dépendante) est

bien expliquée par les autres variables qui lui sont associées. (Roussel et al. 2002).

Page 236: thèse dauphine - nombreux documents chercheurs +

Chapitre6

233

Estimate PUse 0,539 Sat 0,928

ItoUse 0,65 IU 0,08

Tableau 61. Squared Multiple Correlations

La variable satisfaction est bien expliquée par les variables qui lui sont associées (La facilité

d’utilisation des AI et l’utilité perçue des AI) alors que la variable intensité d’utilisation des

AI est faiblement expliquée par les autres variables (La facilité d’utilisation des AI, l’utilité

perçue des AI et l’intention d’utiliser cette technologie dans le processus de prise de décision).

L’utilité perçue est moyennement expliquée par la facilité d’utilisation des AI. Ainsi,

l’intention d’utiliser cette technologie est moyennement expliquée par les autres variables (la

satisfaction des utilisateurs, la facilité d’utilisation et l’utilité perçue).

2.2.2. Résolution du modèle d’équations structurelles

Pour résoudre un modèle d’équations structurelles, nous suivons les étapes de la méthode de

Jöreskog et Sörbom140 qui a été appropriée dans le premier modèle.

Le deuxième modèle proposé va être interprété avec les relations non significatives dans le

but de tester le maximum de relations entre les variables.

2.2.2.1. La corrélation entre les variables latentes expliquées

Dans notre cas pratique, le deuxième modèle conçu sur l’acceptation de la technologie des AI

(Voir Annexe n°7_CH 6) désigne les relations à tester entre d’une part, la variable

indépendante de la facilité d’utilisation des AI (EOUse), d’autre part, les variables

dépendantes de l’utilité perçue (PUse), la satisfaction des utilisateurs (Sat), l’intensité

d’utilisation des AI (IU) et l’intention d’utiliser les AI dans le processus de prise de décision

(ItoUse).

2.2.2.2. Test 1

Dans ce test, nous examinons si les variables expliquées � ont toutes une variable explicative

� comme cause commune. Ce test nécessite de mettre en relation chaque variable à expliquer 140 Jöreskog, K.G.et Sörbom, D. (1996). LISREL 8 : user’s reference guide. Chicago, IL : Scientific Software International, Inc.

Page 237: thèse dauphine - nombreux documents chercheurs +

Chapitre6

234

avec toutes les variables explicatives. Si la corrélation partielle entre �3 (0,93), �4 (0,08), �6

(0,54) et �7 (0,65) est de zéro, ce qui n’est pas le cas et que les variables dépendantes sont

reliées aux variables indépendantes, la proposition est vérifiée. Alors les variables à expliquer

�3, �4, �6 et �7 auront indépendamment les mêmes causes. Dans ce cas la proposition est

invalidée, les variables explicatives ne sont pas toutes des causes communes aux variables à

expliquer, il est possible de passer aux tests suivants.

2.2.2.3. Test 2

Le test 2 consiste à valider ou invalider la proposition suivante : la variable expliquée Utilité

perçue des AI �6 influence les variables expliquées : la satisfaction des utilisateurs �3,

l’intention d’utiliser les AI dans le processus de prise de décision �7, et l’intensité

d’utilisation des AI �4.

Dans ce modèle, l’utilité perçue des AI �6 a un effet positif et significatif sur la Satisfaction

des utilisateurs �3 ( = 0,61 ; t = 7,527). Elle est également associée à la facilité d’utilisation

des AI de manière positive et significative ( = 0, 73 ; t = 9,367).

L’utilité perçue des AI �6 a un effet positif et non significatif sur l’intention d’utiliser les AI

dans le processus de prise de décision �7 ( = 0,12 ; t = 0,405).

L’utilité perçue des AI �6 a un effet négatif et non significatif sur l’intensité d’utilisation des

AI �4 ( = - 0,01 ; t = - 0,088)

2.2.2.4. Test 3

Selon ce test, la variable expliquée Satisfaction des utilisateurs �3 influence l’autre variable

expliquée de l’intention d’utiliser les AI dans le processus de prise de décision �7. La

première variable (Sat) a une influence positive mais non significative sur la deuxième

variable (ItoUse) ( = 0,67 ; t = 1,406). La variable Satisfaction des utilisateurs est associée à

la facilité d’utilisation des AI de manière positive et significative ( = 0, 42 ; t = 5,911).

La variable de l’intention d’utiliser les AI dans le processus de prise de décision influence

positivement l’intensité d’utilisation des AI, mais cette relation est non significative. ( =

0,31 ; t = 1,118). L’intention d’utiliser les AI (ItoU) est associée à la facilité d’utilisation

(EOUse) d’une manière positive et non significative ( = 0, 02 ; t = 0,097).

Aussi, l’intensité d’utilisation (IU) est négativement associée à la facilité d’utilisation des AI

(EOUse) avec un seuil non significatif. ( = - 0, 04 ; t = -0,491).

Page 238: thèse dauphine - nombreux documents chercheurs +

Chapitre6

235

2.2.2.5. Test 4

Le dernier test cherche à vérifier ou infirmer la proposition selon laquelle les variables

expliquées s’influencent réciproquement. Dans notre modèle pratique, nous n’avons pas ce

genre de relations à tester. Les variables dépendantes (PUse, Sat, ItoUse et IU) sont reliées par

des relations directionnelles dites récursives ou asymétriques.

En résumé, la facilité d’utilisation des AI a un effet positif et significatif sur l’utilité

perçue des AI et la satisfaction des utilisateurs de cette technologie.

La facilité d’utilisation des AI (EOUse) et l’utilité perçue (PUse) ont un effet non

significatif sur l’intention d’utiliser les AI et l’intensité d’utilisation.

L’utilité perçue (PUse) a un effet positif et significatif sur la satisfaction des utilisateurs.

Page 239: thèse dauphine - nombreux documents chercheurs +

Chapitre6

236

Section 3. Comparaison de nos résultats avec les travaux effectués

1. Présentation des travaux antérieurs

Legris et al. (2003) ont présenté dans leur article les études utilisant le modèle de

l’Acceptation d’une Technologie (TAM) dans le but de :

- Fournir une analyse critique des méthodes de recherche ;

- Montrer la convergence ou la divergence des résultats ;

- Présenter la valeur ajoutée de ce modèle en expliquant l’utilisation d’un système.

Dans sa version originale, ce modèle avait cinq composantes :

L’utilité perçue (Perceived Usefulness), la facilité d’utilisation (PEOU), l’attitude envers

(Attitude Towards : AT), l’intention d’utilisation (Behavioural Intention to use : BI), et

l’utilisation actuelle (Actual system use : U).

Sur la base de ces cinq composantes présentes, dix relations peuvent être examinées : (1)

PEOU-PU ; (2) PU-AT ; (3) PEOU-AT ; (4) PU-BI ; (5) PEOU-BI ; (6) AT-BI ; (7) AT-U ;

(8) BI-U ; (9) PEOU-U ; (10) PU-U.

Le tableau suivant montre qu’il n’y a pas une étude qui a incorporé toutes ces relations.

Auteurs Logiciels Taille de l’échantillon

Modèle utilisé (TAM)

Davis F.D. (1989) Editeur de texte : programme permettant d’éditer un fichier texte sans les caractéristiques de formatage ou les caractères de contrôle

107 étudiants du MBA

TAM + TRA (“Theory of reasoned action”: Théorie de l’action raisonnée ; Fishbein and Ajzen, 1975)

Davis F.D. (1989, 1993)

E-mail, éditeur de texte

112 professionnels et managers

TAM

Mathieson K. (1991) Tableur 262 étudiants en cours de l’introduction à la gestion

TAM + TPB (“Theory of Planned Behaviour”: Théorie du comportement planifié, Mathieson, 1991)

Davis F.D., Bagozzi R., Warshow P.R. (1989)

« Writeone » : compositeur « chartmaster » :

200 et 40 étudiants de MBA

TAM, TAM

Page 240: thèse dauphine - nombreux documents chercheurs +

Chapitre6

237

Tableur Subramaninan G.H. (1994)

« Voice mail system » : Courrier vocal : possibilité dans un système téléphonique de recevoir des messages vocaux destinés à l’un des usager et de les stocker de manière informatique « Customer dial-up system » : Branchement de l’ordinateur au réseau Internet au moyen d’un modem par un câble téléphonique existant

75 et 104 sujets TAM

Taylor S. & Todd P. (1995, 1995)

Université de calcul, centre de ressources, étudiants de l’école de commerce

786 étudiants TAM + normes subjectives + contrôle de comportement perçu.

Taylor S. and Todd P. (1995, 1995)

Université de calcul, centre de ressources, étudiants de l’école de commerce

786 étudiants TAM + TPB + TPB décomposé.

Keil M., Beranek P.M., Konsynski B.R. (1995)

Logiciels de formation

118 développeurs des techniques de ventes nouvelles

TAM

Szajna B. (1996) Courriers électroniques

61 étudiants gradués TAM

Chau P.Y.K. (1996) Boîtier qui renferme les pièces internes d’un ordinateur

2500 professionnels en technologies de l’information

TAM modifié par l’utilité à court et long terme.

Venkatesh V. Davis F.D. (1989)

Trois expériences avec six logiciels

108 étudiants TAM modèle des antécédents de la facilité d’utilisation perçue

Jackson C.M., Chow S., Leitch R.A. (1997)

Tableur, base de données, logiciels de traitement de texte, graphique

244, 156, 292, 210 étudiants

TAM validation des instruments de l’utilité perçue et de la facilité d’utilisation.

Igbaria M., Cragg P., Zinatelli N., Cavaye A. (1997)

Calcul personnel 596 Utilisateurs de PC

TAM dans les petites entreprises

Bajaj A., Nidumolu S.R. (1998)

Outils de correction des erreurs de programmation

25 étudiants TAM + faire une boucle pour retourner l’ajustement

Gefen D. & Keil M. Logiciels de 307 développeurs des TAM pour tester

Page 241: thèse dauphine - nombreux documents chercheurs +

Chapitre6

238

(1998) formation techniques de nouvelles ventes

l’attention des développeurs perçue

Agarwal R. & Prasad J. (1997, 1999)

Logiciels de traitement de texte, Tableur, graphique

205 utilisateurs de 100 firmes

TAM pour tester les différences individuelles

Lucas H.C., Spitler V.K. (1999)

Poste de travail multi-fonctionnel

54 courtiers en bourse, 81 assistants de vente de compagnies financières

TAM + normes sociales et qualité du système perçu.

Straub D.W., Karahanna E., Chervany N.L. (1999)

Microsoft windows 3.1

77 adopteurs potentiels, 153 utilisateurs dans une société

Adaptation TAM + normes subjectives.

Hu P.J., Chau P.Y.K., Liu Sheng O.R., Yan Tam K. (1999)

Logiciels de « télé médecine »

407 physiciens TAM

Dishaw M.T.& Strong D.M. (1999)

Outils de maintenance de logiciels

60 projets de maintenance dans 50 firmes, non indiqué pour le nombre de sujets

TAM et TTF (“Task-Technology Fit”: Adéquation technologie-tâche ; Goodhue et Thompson, 1995)

Venkatesh V. & Davis F.D. (1996, 2000)

4 systèmes différents dans quatre organisations

48 directeurs de salle, 50 membres de services financiers, 51 employés de petites firmes en comptabilité, 51 employés des petites banques d’investissement

Extension de TAM en incluant les normes subjectives et TTF

Venkatesh V. & Morris M.G. (2000)

Recherche de l’information et des données

342 travailleurs TAM + normes subjectives, sexe et expérience.

Tableau 62. Détails méthodologiques (Legris et al., 2003)

L’analyse des relations entre les variables testées est présentée dans le tableau suivant. Cela

montre une proportion élevée de résultats positifs pour l’ensemble de ces relations. Ces

résultats favorables mettent en valeur ces variables qui sont reliées à l’intention d’adopter la

technologie de l’information. Ces variables ne sont pas suffisantes pour prédire l’adoption

d’une technologie de l’information.

Auteurs PEOU-PU

PU-AT

PEOU-AT PU-BI

PEOU-BI AT-BI AT-U BI-U

PEOU-U PU-U

Davis et al. (1989)

Page 242: thèse dauphine - nombreux documents chercheurs +

Chapitre6

239

Poste de formation Oui141 Oui Non142 Oui Oui Oui 143 Oui fin du semestre Oui Oui Oui Oui Oui Oui Oui Davis (1989, 1993) Oui Oui Oui Oui Oui Mathieson (1991) Oui Oui Oui Oui Oui Davis et al. (1989) Compositeur Oui Oui Oui Oui Oui Oui Tableur Oui Oui Oui Oui Oui Oui Subramanian (1994) Courrier vocal Non Oui Non Client connecté à Internet Non Oui Non Taylor & Todd (1995, 1995) Avec expérience OUi OUi OUi OUi Non Oui Sans expérience OUi OUi OUi OUi Non Oui Taylor & Todd (1995, 1995) Oui Oui Oui Oui Non Oui Keil et al. (1995) Oui Non Oui Szajna (1996) Pré-implémentation Oui Oui Oui Oui Non Non Post-implémentation Oui Oui Oui Oui Non Non Chau (1996) Oui Oui Oui Davis et al. (1989) Oui Oui Oui Jackson et al. (1997) Non Non Oui Non Oui Non Igbaria et al. (1997) Oui Oui Oui Bajaj & Nidumolu (1998) Non

Inverse144 Oui Oui Non

Gefen & Keil (1998) Oui Non Oui Agarwal & Prasad (1997, 1999) Oui Oui Oui Oui Oui Lucas & Spitler (1999) Oui Non Non Non Non

141 Oui indique une relation significative et positive. 142 Non indique une relation non-significative. 143 Le blanc est une relation non mesurée. 144 Inverse est une relation significative mais négative.

Page 243: thèse dauphine - nombreux documents chercheurs +

Chapitre6

240

Karahanna et al. (1999) Utilisateurs potentiels Oui Oui Oui Utilisateurs actuels Oui Oui Oui Hu et al. (1999) Non Oui Non Oui Oui Dishaw & Strong (1999) Oui Oui Non Oui Non Non Venkatesh&Davis (1996, 2000) Oui Oui Oui Oui Venkatesh& Morris (2000) Oui Oui Oui

Tableau 63. Types de relations trouvées (Legris et al., 2003)

Nous présentons les résultats de ces auteurs d’une façon détaillée dans le tableau 64.

Auteurs Résultats

Davis (1989, 1993) TAM sert d’intermédiaire entre les effets des caractéristiques du système sur le comportement de l’utilisation expliquant 36% de la variance de l’utilisation. L’utilité perçue a plus d’influence (de 50%) que la facilité d’utilisation sur la détermination de l’utilisation.

Davis et al. (1989) L’utilité perçue prévoit des intentions d’utilisation alors que la facilité d’utilisation est secondaire et agit à travers l’utilité perçue. Les attitudes ont un impact faible servant d’intermédiaire entre les perceptions et l’intention à utiliser la technologie.

Mathieson (1991) Les deux modèles (TAM et TRA) prévoient mieux les intentions à utiliser une technologie. TAM est plus facile à appliquer, mais il fournit seulement une information générale. TPB fournit mieux une information spécifique pour les développeurs.

Davis et al. (1989) L’utilité et le plaisir expliquent 62% (1ère étude) et 75% (2ème étude) de la variance dans les intentions d’utilisation Ils servent d’intermédiaires entre les effets sur les intentions d’utilisation de la qualité des résultats perçus et la facilité d’utilisation perçue. La mesure de l’importance de la tâche modère les effets de la facilité d’utilisation et la qualité des résultats sur l’utilité et non sur le plaisir.

Subramaninan (1994) L’utilité perçue (et non pour la facilité) est un déterminant de l’utilisation future.

Taylor & Todd (1995, 1995)

TAM modifié explique l’utilisation pour les expérimentés et les non expérimentés. Un lien fort entre l’intention comportementale et le comportement des utilisateurs expérimentés. Les variables antécédentes prévoient mieux les intentions des utilisateurs non expérimentés.

Taylor and Todd (1995, 1995)

Les modèles améliorés se basent sur l’ajustement et l’explication du comportement. TPB fournit une compréhension complète des intentions d’utilisation Les attitudes dans le modèle TAM ne sont pas des prévisions significatives sur l’intention d’utilisation.

Keil et al. (1995) L’utilité est un facteur plus important que la facilité dans la détermination de l’usage du système

Page 244: thèse dauphine - nombreux documents chercheurs +

Chapitre6

241

L’adéquation demande/tâche joue un rôle dans le partage des perceptions que ce soit pour les systèmes faciles ou non à utiliser.

Szajna (1996) Questions sur les mesures des rapports individuels versus la mesure de l’utilisation actuelle. La composante de l’expérience peut être importante dans le modèle TAM.

Chau (1996) Les résultats indiquent que la facilité d’utilisation a une influence large sur l’acceptation de la technologie.

Davis et al.(1989) La perception individuelle de la facilité d’utilisation d’un système particulier est ancrée par l’efficacité de son ordinateur personnel à tout moment. L’utilisation objective a un impact sur la facilité d’utilisation d’un système spécifique seulement après l’expérience directe avec le système.

Jackson et al. (1997) L’effet direct de l’implication de situation sur l’intention comportementale, en plus de l’attitude, est significatif dans la direction négative. L’attitude semble jouer un rôle d’intermédiaire L’implication intrinsèque joue un rôle significatif dans les perceptions partagées.

Igbaria et al. (1997) La facilité d’utilisation est un facteur dominant dans l’explication de l’utilité perçue et l’usage d’un système, et l’utilité perçue a un grand effet sur l’utilisation. Les variables exogènes influencent à la fois l’utilité perçue et la facilité d’utilisation particulièrement pour l’assistance en management et l’assistance externe. L’assistance est relativement faible pour l’influence de l’assistance et la formation interne.

Bajaj & Nidumolu (1998)

L’utilisation passée influence la facilité d’utilisation d’un système. C’est un facteur clé déterminant l’utilisation future.

Gefen & Keil (1998) Les managers en SI peuvent influencer à la fois l’utilité perçue et la facilité d’utilisation perçue d’un IS à travers l’échange social avec l’utilisateur.

Agarwal & Prasad (1997, 1999)

Il apparaît que rien d’inhérent dans les différences individuelles qui déterminent fortement l’acceptation de l’utilisation. Identifier les variables des différences individuelles (niveau d’éducation, l’étendu des expériences prioritaires, participation en formation) qui ont des effets significatifs sur les croyances du modèle TAM.

Lucas & Spitler (1999)

Les variables organisationnelles comme les normes sociales et la nature du travail sont plus importants dans la prévision de l’utilisation d’une technologie que dans les perceptions de l’utilisateur envers une technologie.

Straub et al. (1999) L’attitude de pré-adoption est basée sur les perceptions de l’utilité, la facilité d’utilisation, la démonstration des résultats et la visibilité. L’attitude de pré-adoption est uniquement basée sur les croyances instrumentales de l’utilité et l’amélioration des perceptions de l’image.

Hu (1999) TAM est capable de fournir une description de l’intention de l’utilisateur à utiliser une technologie. L’utilité perçue peut être un déterminant significatif de l’attitude et l’intention. La facilité d’utilisation est un déterminant non significatif.

Dishaw & Strong (1999)

Proposition d’intégration de TAM et des construits de l’adéquation technologie-tâche Le modèle intégré conduit à une meilleure compréhension de choix sur l’utilisation des TI.

Venkatesh & Davis (1996, 2000)

Le modèle étendu compte pour 40-60% de la variance dans les perceptions de l’utilité et 34-52% de la variance dans les intentions d’utilisation. Le processus d’influence sociale (normes subjectives et image) et les processus instrumentaux cognitifs (la pertinence du travail, la qualité des résultats, la démonstration des résultats et la facilité d’utilisation perçue) influencent significativement l’acceptation de l’utilisateur.

Page 245: thèse dauphine - nombreux documents chercheurs +

Chapitre6

242

Venkatesh & Morris (2000)

En comparant la technologie utilisée par les hommes ou les femmes. La relation entre le sexe et la technologie est plus influencée par leurs perceptions de l’utilité. Les femmes sont plus influencées par la perception de la facilité d’utilisation et les normes subjectives, à travers l’effet des normes subjectives diminuées tout le temps.

Tableau 64. Résumé des résultats des recherches antérieures (Legris et al., 2003)

Les nouvelles études effectuées entre 2000 et 2005 reprennent les mêmes variables à tester les

plus connues sont réalisées par Rai et al. (2002), Davis et al. (2003), Sabherwal et al.

(2004)…

Après avoir évoqué les principales études, nous récapitulons nos propres résultats et la

confirmation des hypothèses testées suite au traitement des données.

2. Récapitulation de nos résultats et leur comparaison aux travaux antérieurs

2. 1. Récaputation des résultats de cette étude

Nous présentons dans cette sous-section les résultats de la méthode d’équations structurelles.

Dans ce tableau nous présentons les relations testées qui structurent les deux modèles conçus

dans le but d’affirmer et d’infirmer les hypothèses théoriques et qui sont constatées à partir

l’élaboration de ces deux modèles.

Page 246: thèse dauphine - nombreux documents chercheurs +

Chapitre6

243

Résultats produits sous AMOS 4. Hypothèses de ces deux modèles 145

Relations Premier Modèle (TTF modifié) 146

Deuxième Modèle (TAM) 147

Conclusion

H12 QLD <--> QS (� = 0,801 ; t = 6,365)

La relation entre la qualité et la localisation des données avec la qualité de service est bi-directionnelle et indique une co-variance entre ces deux variables latentes explicatives. C’est une relation significative.

H32 Sat <-- QS ( = 0,92 ; t = 11,109).

La qualité du service des AI a un impact positif et significatif sur la satisfaction des utilisateurs de cette technologie.

H41 IU <-- QLD ( = 0,30 ; t = 1,845).

La qualité et la localisation des données a un impact positif mais non significatif sur l’intensité d’utilisation des AI.

H42 IU <-- QS ( = 0,81 ; t = 11,109).

La qualité du service des AI a un impact positif et significatif sur l’intensité d’utilisation des AI.

H43 IU <-- Sat ( = - 0,61 ; t = 2,151)

La satisfaction des utilisateurs des AI a un impact négatif et significatif sur l’intensité d’utilisation de cette technologie.

H65 PUse <-- EOUse

( = 0,73 ; t = 9,367)

La facilité d’utilisation des AI a un impact positif et significatif sur l’utilité perçue de cette technologie.

145 Les hypothèses sont indicées en fonction de la numérotation des variables latentes. (V1 = QLD ; V2 = QS ; V3 = Sat ; V4 = IU ; V5 = EOUse ; V6 = PUse ; V7 = ItoUse.) 146 ����� ddl = 2,146; p = 0,000; RMSEA= 0,086; AGFI = 0,778; NFI = 0,892; RMR = 0,095. 147 ����� ddl = 2,366 ; p = 0,000; RMSEA= 0,094; AGFI = 0,793; NFI = 0,897; RMR = 0,054.

Page 247: thèse dauphine - nombreux documents chercheurs +

Chapitre6

244

H35 Sat <-- EOUse ( = 0,42 ; t = 5,911)

La facilité d’utilisation des AI a un impact positif et significatif sur la satisfaction des utilisateurs.

H36 Sat <-- PUse ( = 0,61 ; t = 7,527)

L’utilité perçue de cette technologie a un impact positif et significatif sur la satisfaction des utilisateurs.

H75 ItoUse <-- EOUse

( = 0,02 ; t = 0,097)

La facilité d’utilisation des AI a un impact positif faible et non significatif sur l’intention d’utiliser cette technologie.

H73 ItoUse <-- Sat ( = 0,67 ; t = 1,406)

La satisfaction des utilisateurs a un impact positif et non significatif sur l’intention d’utiliser cette technologie.

H76 ItoUse <-- PUse

( = 0,12 ; t = 0,405)

L’utilité perçue de cette technologie a un impact positif faible et non significatif sur l’intention d’utiliser cette technologie.

H46 IU <-- PUse ( = - 0,01 ; t = -0,088)

L’utilité perçue de cette technologie a un impact négatif et non significatif sur l’intensité d’utilisation de cette technologie.

H47 IU <-- ItoUse ( = 0,31 ; t = 1,118)

L’intention d’utiliser cette technologie a un impact positif et non significatif sur l’intensité d’utilisation de cette technologie.

H45 IU <-- EOUse ( = -0,04 ; t = -0,491)

La facilité d’utilisation des AI a un impact négatif et non significatif sur l’intensité d’utilisation de cette technologie.

Légende

Page 248: thèse dauphine - nombreux documents chercheurs +

Chapitre6

245

QLD : qualité et localisation des données. QS : qualité du service offert par les AI. Sat : satisfaction des utilisateurs des AI. IU: intensité d’utilisation des AI. EOUse: facilité d’utilisation des AI. PUse: utilité perçue des AI. ItoUse: intention d’utiliser les AI dans le processus de prise de décision.

Tableau 65. Résultats de la méthode d’équations structurelles examinée sur les deux modèles

D’après ce tableau récapitulatif des relations linéaires entre les variables latentes des deux

modèles nous concluons que :

1. Le premier modèle TTF modifié explique que :

a. L’intensité d’utilisation des AI dépend fortement de la qualité de service offerte par

cette technologie.

b. La satisfaction des utilisateurs peut freiner l’intensité d’utilisation des AI.

c. Les autres variables de ce premier modèle (la qualité et la localisation des données)

et celles du deuxième modèle (la facilité d’utilisation des AI, l’utilité perçue des AI et

l’intention de les utiliser dans le processus de prise de décision) n’ont pas d’effet significatifs

sur l’intensité d’utilisation des AI.

2. Le deuxième modèle TAM explique que :

a. L’utilité perçue des AI a plus d’influence sur la satisfaction des utilisateurs que la

facilité d’utilisation des AI.

b. L’utilité perçue et la facilité d’utilisation des AI ne prévoient pas des intentions

d’utilisation alors que la satisfaction des utilisateurs a un impact fort servant d’intermédiaire

entre les perceptions (PUse et EOUse) et l’intention d’utiliser cette technologie.

c. L’utilité perçue et la facilité d’utilisation des AI peuvent être des déterminants

significatifs à la satisfaction des utilisateurs. Ces deux variables ne peuvent pas l’être sur

l’intention et l’intensité d’utilisation.

Page 249: thèse dauphine - nombreux documents chercheurs +

Chapitre6

246

2. 2. Comparaison de nos résultats aux travaux antérieurs

En se basant sur les travaux antérieurs et nos propres résultats, ces derniers convergent avec

ceux de Dishaw & Strong (1999) au niveau de la combinaison des deux modèles classiques

(TTF/TAM), ces auteurs se sont basés sur l’évaluation de l’utilisation des outils de

maintenance appliquée sur un échantillon composé de firmes financières (60 projets dans 50

firmes). Ils ont réussi à démontrer des relations positives entre les variables perceptuelles : la

facilité d’utilisation / l’utilité perçue (EOU/PU) ; l’utilité perçue / l’attitude envers (PU/AT) ;

l’utilité perçue / l’intention d’utilisation (PU/BI) ; l’attitude envers / l’intention d’utilisation

(AT/BI). Et à trouver des relations négatives entre ces deux variables : l’intention d’utilisation

/l’utilisation actuelle (BI/U) ; l’utilité perçue / l’utilisation actuelle (PU/U).

Dans notre recherche nous avons remplacé les variables suivantes : « l’attitude envers : AT»

par la variable « Satisfaction des utilisateurs :SAT » ; « l’intention d’utilisation : BI» par

« l’intention d’utilisation des AI dans le processus de prise de décision : ItoUse » et

« l’utilisation actuelle : U » par « l’intensité d’utilisation des AI : IU ». Le test des relations

entre ces variables est présenté dans le tableau suivant :

Relations testées liées aux travaux antérieurs PEOU-

PU PU-AT PEOU-AT PU-BI

PEOU-BI AT-BI AT-U BI-U

PEOU-U PU-U

Résultats de Strong & Dishaw (1999)

Oui148 Oui 149 Oui Oui Non150 Non

Relations testées liées à notre étude EOU-

PU PU-SAT

EOU-SAT

PU-ItoUse

EOU-ItoUse

SAT-ItoUse

SAT-IU

Ito Use-IU

EOU-IU PU-IU

Résultats de notre étude (2006)

Oui Oui Oui Non Non Non Inverse151

Non Non Non

Tableau 66. Comparaison des résultats de nos travaux à ceux de Dishaw & Strong (1999).

148 Oui indique une relation significative et positive. 149 Le blanc est une relation non mesurée. 150 Non indique une relation non-significative. 151 Inverse est une relation significative mais négative.

Page 250: thèse dauphine - nombreux documents chercheurs +

Chapitre6

247

Ce tableau montre que notre comparaison est envisagée dans le cadre de quelques relations

qui se rapprochaient de celles testées par Dishaw et Strong. D’autres relations ont été testées

et ne sont pas présentées dans ce tableau. Les relations exposées ci-dessus sont celles qui

peuvent être comparées aux travaux antérieurs. Ceci est dû aux raisons suivantes :

- Les autres études ont évalué l’utilisation d’autres technologies d’information.

- La taille de notre échantillon est relativement moyenne par rapport aux autres

travaux.(Voir Tableau 62)

- Notre recherche s’approche des travaux de Dishaw et Strong au niveau du choix des

modèles d’évaluation de l’utilisation des technologies de l’information. Le modèle

intégré (TTF/TAM) que nous avons testé sous PLS conduit à une meilleure

compréhension de choix de l’utilisation des AI.

Page 251: thèse dauphine - nombreux documents chercheurs +

Chapitre6

248

Conclusion Dans ce chapitre, nous avons fait de l’analyse confirmatoire qui consiste à tester à l’aide des

indicateurs de structure les meilleurs modèles et à vérifier les variances restituées pour chaque

item. Une analyse structurelle a été réalisée pour analyser deux modèles. En se basant sur les

liens linéaires entre les variables mesurant des concepts, il s’agit de tester un modèle par

rapport à un autre. Des indices d’ajustement permettent de tester l’expérimentation par rapport

au modèle théorique. Les logiciels les plus utilisés sont EQS, LISREL, PLS et AMOS.

Dans cette analyse, nous avons utilisé en premier lieu le logiciel PLS-Graph dans le but de

tester la fiabilité des items de mesure, la validité convergente et discriminante entre les

variables latentes pour vérifier leurs corrélations. Nous avons testé toutes les relations

linéaires possibles entre les variables du modèle théorique. L’utilisation de ce logiciel nous a

permis d’avoir une vue globale sur les variables latentes constitutives de ce modèle, leurs

relations entre elles et avec leurs indicateurs de mesure. Cette vue a facilité de dégager deux

modèles structurels qui ont été examinés sous le logiciel AMOS 4. Ce logiciel est conçu un

matériel pédagogique servant à expliquer de manière visuelle les matrices d’équations

structurelles nécessaires pour la démarche LISREL.

C’est l’analyse confirmatoire ou confirmative des données qui permet d’apporter un soutien

empirique à un modèle théorique selon :

- La validité de mesure qui consiste à vérifier la capacité des variables observées à

mesurer les variables théoriques auxquelles elles sont affectées dans le modèle ;

- La validité structurelle qui permet de vérifier que les liens de « causalité » entre les

variables théoriques sont conformes à celles définies dans le modèle.

Page 252: thèse dauphine - nombreux documents chercheurs +

249

Synthèse de la Partie 2. Résumé des résultats du processus

d’analyse des données

Nous avons testé la validité du modèle sur une réalité concrète par la construction et la

diffusion d’un questionnaire auprès d’utilisateurs d’agents intelligents appartenant à différents

départements faisant partie de grandes entreprises françaises. Ces étapes ont été explicitées

dans le chapitre 4.

Le processus d’analyse mis en œuvre est composé de trois étapes :

- La première analyse est descriptive pour tester l’homogénéité de l’échantillon.

- La deuxième analyse est exploratoire : une Analyse en Composantes Principale est

utilisée pour réduire le nombre de variables à tester. Nous avons fait appel à une

classification appliquée séparément sur les deux modèles (TTF/TAM) afin de

comprendre le comportement des utilisateurs des AI. Ces deux traitements ont été

réalisés sous le logiciel SPAD. Enfin une analyse de variance est mise en place pour

mesurer le degré d’influence entre les caractéristiques de la technologie sur les

variables des deux modèles d’une part. nous avons testé, d’autre part, l’influence des

variables démographiques sur le deuxième modèle. Le traitement de données de cette

analyse est réalisé sous SPSS.

Ces deux premières analyses sont présentées dans le chapitre 5.

- La troisième analyse est confirmatoire et elle est composée de deux traitements :

Dans le premier traitement, nous avons testé dans un premier temps toutes les relations

possibles qui forment un modèle intégré sous PLS-Graph, nous avons retenu dans un

second temps, 24 relations suite à l’élimination des variables latentes qui n’ont pas

vérifié la validité convergente. Ce test conduit à une compréhension de choix sur

l’utilisation des AI, mais l’utilisation de ce logiciel a montré ses limites. C’est pourquoi,

nous avons élaboré et spécifié dans le deuxième traitement, sous AMOS deux modèles

résultant du premier traitement (le premier modèle est composé de cinq relations et le

second est composé de neuf relations)

Cette dernière analyse est présentée dans le chapitre 6.

Page 253: thèse dauphine - nombreux documents chercheurs +

250

1. Résultats de la première phase descriptive des données

La population étudiée présente les caractéristiques suivantes :

- Six secteurs ont été identifiés dont les plus représentés sont l’informatique, les

réseaux et télécommunications (31,6%) et Matériel électrique et électronique

(29,7%).

- Cinq départements ont été repérés dans cet échantillon : R&D (37%) ceci est

expliqué par l’utilisation de cette technologie par les ingénieurs et les chercheurs ;

l’informatique (30%), les AI sont normalement conçus dans ce département ; le

département Marketing & Management (15%), ils sont utilisés pour la recherche des

informations sur les consommateurs et la veille des produits concurrents… ; le

département de systèmes d’information (9%), c’est un outil de traitement de

l’information ; le département de finance (8%)…

- Quatre tâches ont été spécifiées : le plus grand pourcentage de cette population est

composée par les utilisateurs finaux de cette technologie (46%), les directeurs

forment 19%, les concepteurs (17%) et les analystes (15%).

2. Résultats de la deuxième phase exploratoire

La deuxième phase exploratoire est composée de trois étapes :

- Afin de purifier et éliminer les items perturbateurs (nous avons passé de 59 à 32

items), une première ACP est effectuée sur le premier modèle (12 items sont

retenus), une deuxième ACP est réalisée sur le deuxième modèle (20 items sont

retenus dont trois font partis de la variable des fonctionnalités des AI)

- Deux classifications ont été réalisées sur les deux modèles. Cette méthode a permis

d’identifier les AI utilisés correspondant au secteur d’activité de l’entreprise, au

département de l’utilisateur et à sa fonction. Le choix entre ces AI dépend fortement

de ces trois variables et des fonctionnalités de cette technologie.

- Enfin, suite à l’utilisation de l’analyse de variance, nous remarquons qu’il y a une

influence élevée entre les caractéristiques de la technologie et l’intensité d’utilisation.

Et nous notons qu’il n’y a pas d’effets significatifs entre les variables

démographiques et les perceptions de l’utilisateur envers cette technologie.

Page 254: thèse dauphine - nombreux documents chercheurs +

251

3. Résultats de la phase confirmatoire

La troisième analyse confirmatoire consiste à tester les quatre hypothèses:�

- La première hypothèse a été testée sous PLS-Graph et sous AMOS, nous notons que

l’impact des fonctionnalités des AI sur les variables de l’ATT est plus élevé que les

caractéristiques de la tâche. Ce qui montre que les fonctionnalités d’une technologie

peuvent favoriser une bonne adéquation entre l’AI et la tâche effectuée. Sous AMOS,

nous n’avons pas pu validé cette hypothèse.

- La deuxième hypothèse consiste à tester l’impact des variables de l’adéquation

technologie tâche sur l’intensité d’utilisation des AI. Le premier traitement sous PLS

nous montre que l’impact de la qualité et la localisation des données sur l’intensité

d’utilisation des AI est plus élevé que la qualité de service des AI. Cette relation

n’est pas vérifiée lors de l’utilisation du logiciel AMOS, en effet, l’intensité

d’utilisation dépend fortement de la qualité du service offerte par cette technologie.

- La troisième hypothèse consiste à tester l’impact des variables de l’adéquation

technologie tâche sur celles de l’acceptation des AI. Nous avons vérifié lors du

premier traitement sous PLS que l’impact de la qualité de service des AI sur les

perceptions de l’utilisateur est plus élevé que la qualité et la localisation des données.

Lors du deuxième traitement nous avons testé uniquement l’impact de la qualité de

service sur la satisfaction des utilisateurs, nous avons montré que c’est une relation

positive et significative. La satisfaction des utilisateurs de la qualité du service des

AI est expliquée par la multi-fonctionnalité de cette technologie.

- Le test de la quatrième hypothèse permet de déduire que:

Sous PLS, l’intensité d’utilisation des AI dépend de la facilité d’utilisation de cette

technologie.

Sous Amos, nous avons pu montrer que les variables de l’Acceptation de la

technologie n’ont pas d’effets significatifs sur l’intensité d’utilisation des AI.

PLS-GRAPH AMOS 4

H1: Tester l’impact des caractéristiques de la tâche et celles de la technologie sur les variables de l’Adéquation Technologie-Tâche

L’impact des fonctionnalités des AI sur les variables de l’Adéquation Technologie-Tâche est plus élevé que les caractéristiques de la tâche

Testée et non validée.

H2: Tester l’impact des L’impact de la qualité et la L’intensité d’utilisation

Page 255: thèse dauphine - nombreux documents chercheurs +

252

variables de l’Adéquation Technologie-Tâche sur l’intensité d’utilisation des AI.

localisation des données sur l’intensité de l’utilisation des AI est plus élevé que leur qualité du service

dépend fortement de la qualité de service des AI.

H3: Tester l’impact des variables de l’Adéquation Technologie-Tâche sur les variables de l’Acceptation de la technologie des AI.

L’impact de la qualité du service des AI sur les perceptions de l’utilisateur est plus élevé que la qualité et la localisation des données

La qualité de service des AI a un impact positif et significatif sur la satisfaction des utilisateurs

H4: Tester l’impact des variables de l’Acceptation de la technologie des AI sur le degré de leur utilisation

L’intensité d’utilisation des AI dépend de sa facilité d’utilisation et non de son utilité perçue

Les variables de l’Acceptation de cette technologie n’ont pas d’effets significatifs sur l’intensité d’utilisation

Tableau 67. Résultats de la phase confirmatoire

Page 256: thèse dauphine - nombreux documents chercheurs +

253

Conclusion Générale

« La science est d’un goût amer à ses débuts,

mais à la fin elle est aussi douce que le miel »,

Citée dans l’exposition de l’âge d’Or du monde arabe à l’IMA- Paris.

Page 257: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

254

1. Rappel des questions et de la méthodologie de la recherche

1.1. Questions de recherche

Au départ de cette recherche, il s’agissait d’étudier l’impact de l’utilisation de la technologie

des Agents Intelligents sur le processus de la veille stratégique. Puis, la problématique a été

affinée pour étudier la manière dont les agents intelligents sont intégrés et utilisés dans le

cadre du processus de veille stratégique, et pour mesurer la perception qu’en avaient les

utilisateurs à titre individuel.

Dans cette perspective, trois questions de recherche ont particulièrement retenu notre

attention :

- Comment peut-on faire le choix entre les différents agents intelligents pour collecter,

traiter et diffuser les informations ?

- Quelles sont les caractéristiques de l’utilisation des AI et comment sont-ils intégrés

dans le processus de veille stratégique ?

- Quel est l’impact de la perception des AI sur l’intensité d’utilisation ?

1.2. Méthodologie suivie

Notre démarche s’est appuyée sur un cadre théorique qui nous a permis de délimiter et

d’harmoniser différents champs de recherche, de construire un modèle théorique (Première

partie de la thèse) et de recourir à diverses méthodologies synthétisées (Deuxième partie),dans

le tableau 68. Celui-ci, tiré d’un article de Banker & Kauffman de 2004, montre toutes les

méthodologies auxquelles on peut recourir dans le cadre d’une recherche en Systèmes

d’Information. Il permet également d’expliquer les cinq grands courants de la recherche en

Systèmes d’Information :

- Le premier courant focalise son attention sur l’application des ordinateurs dans

l’assistance à la décision, au contrôle et à la prise de décision managériale.

- Le deuxième courant s’intéresse aux relations établies basées sur l’économie de

l’analyse de l’information.

Page 258: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

255

- Le troisième courant fait ressortir la base cognitive pour la conception de systèmes

efficaces.

- Le quatrième courant centre ses analyses à la fois sur le lien entre la valeur de

l’investissement en SI et son impact économique et sur la perception d’un tel système

par son utilisateur.

- Le cinquième courant couvre l’économie des SI et des TI, et étudie l’application des

méthodes et perspectives théoriques de l’économie empirique et analytique aux

problèmes managériaux impliquant les SI et les TI.

Page 259: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

256

Courants de recherche Niveaux d’analyse Théories Méthodologies utilisées Disciplines reliées Aide à la décision et conception de la science. Qualité du système152 (Agent Intelligent)

Niveau de système, en majorité en le combinant avec les utilisateurs humains ou les processus d’affaires, jusqu’au niveau d’une unité stratégique

Théorie de la décision, optimisation de réseaux, théorie de contrôle.

Programmation mathématique, Prévision, Simulation et systèmes experts.

Science de l’informatique, Recherche opérationnelle, Sciences économiques, Marketing, Management stratégique.

Valeur de l’information Preneurs de décision individuels, Technologies dans le contexte du processus d’affaires, les actions de la firme dans le contexte du marché.

Economie de l’information, théorie des options réelles, théorie de partage de l’information. Théorie de traitement de l’information

Arbres de décision, modèles analytiques, analyses statistiques, programmation mathématique, simulation.

Sciences économiques, Science de la décision, management de risque. Intelligence artificielle.

Conception des systèmes Homme-Machines

Utilisateur focalisé, Implication des individus et des groupes.

Style cognitif, Théorie de décision comportementale

Expérience, argumentation, simulation, Systèmes de banc d’essai

Psychologie cognitive, Science de décision, Science de conception

Organisation SI et stratégie Niveaux couverts : individus, groupes, unités d’affaires, organisations, place de marché

Théorie de diffusion, théorie de richesse de médias, RBV de la firme, économie des coûts de transaction, Adéquation Technologie-Tâche, Modèle de l’acceptation d’une technologie.

Modèles, études de cas, champs d’étude, Expérience, Questionnaire, Etudes longitudinale et en coupe croisée, argumentation, triangulation des études qualitatives et quantitatives.

Théorie organisationnelle, management stratégique, psychologie sociale, psychologie cognitive, Sciences économiques.

Economie des SI et des TI Niveaux couverts : preneurs de décision individuels, Processus d’affaires/Produit/Projet, Firme/unité d’affaires stratégiques, Industrie, Marché, Economie

Théorie de la firme, Economie de production, Théorie de jeux, Théories de contrats, Réseaux externes.

Modélisation analytique, analyses empiriques et économétrie, Etudes longitudinale et en coupe croisée, expérience, simulation

Sciences économiques, Recherche opérationnelle, Science de l’informatique, Management stratégique.

Tableau 68. Les cinq courants de recherche en SI, 1954-2003 (Banker & Kauffman, 2004)

152 Qualité de système, théorie de traitement de l’information et intelligence artificielle sont ajoutés par l’auteur de cette thèse. Les flèches pointillées montrent notre parcours au sein de la recherche SI.

Page 260: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

257

Notre raisonnement s’est inscrit dans plusieurs de ces courants de recherche (voir parties

surlignées du tableau 68) ce qui a justifié le plan de notre thèse.

2. Principaux résultats, limites et prolongements possibles

2.1. Liens entre veille stratégique et Agents Intelligents

Notre travail de recherche, focalisé sur l’Agent Intelligent a montré que celui-ci est une

technologie de traitement automatique de l’information, aujourd’hui au cœur du système

d’information et de la veille stratégique. Il est donc au service du processus dynamique de

veille stratégique et du système d’information. Il reste que cet outil très récent ne se substitue

pas et n’élimine pas d’autres outils plus traditionnels mais toujours d’actualité. Notre choix a

été fait en fonction de la « modernité » de cette technologie et de son lien particulier avec la

veille stratégique.

2.2. Liens entre Agents Intelligents et autres domaines de recherche

A travers les caractéristiques et les applications de la technologie des agents intelligents nous

avons présenté trois types de classifications. La première est liée aux architectures de cette

technologie (domaine de l’intelligence artificielle), la deuxième est liée au domaine de

commerce et la troisième est liée au Web. Nous sommes toutefois conscients que notre

démarche, à ce niveau, est restée quelque peu technique. Nous avons présenté par la suite la

première phase d’exploration du terrain dont l’objectif est de comprendre l’utilisation des

outils de la veille stratégique.

2.3. Liens entre l’agent humain et l’AI

La technologie des AI est donc essentielle dans le processus de veille stratégique. Nous avons

cependant montré l’importance de la présence humaine dans tout modèle d’évaluation des SI.

Notre recherche nous a permis de positionner l’agent humain en face de l’agent intelligent

afin d’évaluer l’utilisation de cette technologie. Dans ce cadre, nous avons rencontré quelques

limites conceptuelles : le rapprochement du champ de l’IHM de celui du MSI a été difficile à

établir ; le choix entre les différents modèles d’évaluation des SI proposés par la littérature n’a

pas toujours été aisé à effectuer.

Page 261: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

258

2.4. De nombreux domaines d’application

Dans notre travail de terrain, nous avons découvert de nombreux domaines d’application des

AI. Cependant, le nombre restreint des entretiens réalisés dans la première phase

d’exploration du terrain (6 entretiens) n’a pas permis de lancer l’étude empirique que nous

avions envisagé de mener. C’est donc un travail qui reste à faire afin de comprendre le

processus d’implémentation d’un AI dans une entreprise donnée, en fonction de son

organisation, et de saisir les domaines d’application les plus appropriés.

2.5. Une large typologie d’utilisateurs

Le recours à l’ACP a permis d’identifier et d’éliminer les items perturbateurs pour les deux

modèles utilisés. Neuf classes d’utilisateurs ont donc été retenues dans notre classification :

cinq pour le modèle TFF et quatre pour le modèle TAM. Dans le cadre de cette classification,

nous avons proposé une typologie des utilisateurs des AI en fonction de la technologie

utilisée, du secteur d’activité de l’entreprise, du département concerné et de la tâche de

l’utilisateur. Enfin, l’analyse de la variance a permis de chercher la liaison entre les variables

nominales (age, sexe, langue, département, tâche, AI utilisé) et les variables continues de

chaque modèle. Cependant, là aussi, nous avons rencontré quelques limites conceptuelles

liées au choix des variables intégrées dans le modèle théorique global, à la non prise en

compte de la qualité de l’information, à l’élimination de l’item 37 (qui mesure la satisfaction

des utilisateurs de l’information produite par les AI) lors de l’analyse confirmatoire sous PLS.

Nous avons choisi de suivre une approche qui considère la qualité du système et de

l’information comme un tout. Or, il existe d’autres approches qui les séparent et/ou qui

intègrent la variable temps de sorte à étudier séparément qualité du système et information.

Nous avons également été confronté à une limite empirique. Notre étude a été centrée sur une

perspective individuelle ce qui a exclu de notre champ de recherche l’impact organisationnel

de l’utilisation de la technologie des AI. Là aussi, le travail de recherche mériterait d’être

approfondi, notamment dans le choix d’autres variables de mesure, dans le cadre d’un

contexte élargi à la dimension organisationnelle. En faisant, par exemple, une étude pré et

post implémentation d’un AI dans une entreprise, en choisissant une organisation « idéale ».

2.6. Des instruments de mesure fiables et des variables significatives

Malgré ces limites, notre travail de recherche a permis, grâce aux méthodes d’équations

structurelles PLS Graph et AMOS 4, de tester toutes les relations du modèle théorique et les

Page 262: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

259

relations existantes dans les deux sous-modèles re-spécifiés : la fiabilité et la validité des

instruments de mesure utilisés a été vérifiée ; des relations significatives, positives et

négatives entre les variables composant les deux modèles ont été trouvées. Pour autant, vu le

nombre élevé des variables latentes et la taille réduite de l’échantillon, nous n’avons pas pu

tester tout le modèle théorique sous AMOS. Dans ce cadre, il serait utile de poursuivre la

recherche en intégrant la variable temps, en faisant une étude longitudinale pour découvrir le

changement perceptuel des utilisateurs qui s’en suivrait.

3. Les implications conceptuelles et managériales

Au bout du compte, nous constatons que les résultats de notre recherche ont des implications

multiples en terme théoriques et pratiques.

3.1. Les contributions conceptuelles

Au plan théorique, une contribution essentielle de cette recherche est la nécessaire extension

du modèle de l’acceptation d’une technologie pour y inclure des facteurs identifiant les

besoins fonctionnels de cette technologie.

Des variables additionnelles, influençant l’utilité perçue, l’intensité d’utilisation de la

technologie et la satisfaction de l’utilisateur, doivent être identifiées et étudiées.

Pour la recherche, les différences et les superpositions entre les deux modèles doivent être

explorées au fond.

Les résultats de Dishaw & Strong (1999) suggèrent que les aspects de l’utilisation sont

déterminés par les perceptions des utilisateurs en fonction de l’utilité et la facilité d’utilisation

des outils et l’attitude générale envers l’utilisation des outils. Cependant, d’autres aspects sont

affectés en combinant une fonctionnalité spécifique à un outil aux besoins spécifiques d’une

tâche.

Notre modèle théorique global a été développé spécialement pour la technologie des AI.

Cependant, à l’exception du construit mesurant les fonctionnalités des AI (qui est spécifique à

cette technologie), tous les autres construits sont applicables à d’autres types de technologies

de l’information. Pour ces raisons, les résultats de notre recherche pourraient être étendus aux

différentes technologies de l’information (TI). Cette hypothèse mériterait une étude de

validation pour ces autres technologies.

Page 263: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

260

Notre modèle a été testé dans plusieurs secteurs d’activités d’entreprises. Les participants à

notre enquête ont montré tout l’intérêt qu’il y a à utiliser cette technologie. D’après nos

résultats, l’utilisation des AI couvre les deux premiers stades du processus de prise de

décision : l’identification des problèmes ; la proposition de solutions alternatives. Nous ne

sommes toutefois pas arrivés au stade de la conception d’un AI qui sélectionne la solution

« idéale ». Par ailleurs, un AI qui couvrirait tout le cycle de prise de décision n’est pas encore

diffusé à tous les acteurs d’une organisation. Actuellement, un AI peut assurer :

- La phase de collecte des données disponibles et faire l’alimentation par n’importe

quel outil.

- La phase de traitement des informations et de structuration de celles qui ne le sont

pas. Cette exploitation respecte un certain nombre de règles qui ne sont pas toutes

écrites, mais qui sont partagées par l’ensemble des acteurs de l’entreprise.

- La phase de diffusion des informations sous forme de bases de connaissances.

Enfin, nous avons constaté que la mise en œuvre d’un AI dans une entreprise s’accompagne

d’un changement organisationnel, parfois culturel, dont les effets financiers (coût) ne sont pas

négligeables. Cela expliquerait, en partie, pourquoi cette technologie est plutôt utilisée dans

les grandes entreprises.

Page 264: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

261

3.2. Les contributions managériales

En pratique, les éditeurs de logiciels doivent être conscients que l’utilisation actuelle ne

dépend pas uniquement de l’utilité perçue et de la facilité d’utilisation, mais aussi de la

fonctionnalité de l’outil et son lien avec les besoins de la tâche. De leur côté, les directeurs

utilisateurs de logiciels doivent se rendre compte que la faible utilisation des outils peut

résulter d’une inadéquation entre les fonctions de l’outil et les demandes de la tâche plutôt

que de l’utilité et l’utilisatbilité des outils.

L’absence de lien direct entre les variables du modèle (TTF) et celles du modèle (TAM) d’une

part, et le rôle de médiation apparent de la satisfaction des utilisateurs de ces outils, d’autre

part, mérite d’être poursuivi dans d’autres travaux.

Dans nos travaux, l’intensité d’utilisation des outils a été testée. Les résultats montrent un

effet direct positif de l’intensité et la qualité du service offert par les AI, et un effet direct

négatif de l’intensité et de la satisfaction des utilisateurs. Cependant, la faible taille de notre

échantillon n’a pas permis de diviser l’échantillon et tester les différences entre une grande et

une faible intensité d’utilisation.

L’un des objectifs de cette thèse fut aussi d’identifier les antécédents de l’intention d’utiliser

les AI dans le processus de prise de décision dans le but de faciliter les interventions

manageriales et augmenter la diffusion de cette technologie dans les organisations.

Nous l’avons montré, l’utilisation des AI, la qualité de service offert par les AI et la bonne

perception des AI peuvent encourager leur utilisation par les dirigeants lors de la prise de

décision. De plus, l’utilité perçue et la facilité d’utilisation des AI étant des déterminants

importants de la satisfaction des utilisateurs, les managers doivent fixer comme un objectif

important l’augmentation de la conscience des utilisateurs quant à la manière dont les tâches

peuvent être fournies par la technologie, et la réduction de leur inquiétudes relatives à la

complexité de la technologie.

Par ailleurs, l’innovation technologique se produisant à un rythme de plus en plus rapide, les

managers sont de plus en plus confrontés aux difficultés de diffusion des nouvelles

technologies dans leurs organisations (Abrahamson, 1991). Cependant, le taux de changement

technologique n’implique pas nécessairement le même taux d’adoption identique, car

l’adoption et l’usage dépendent de la psychologie de l’acceptation de l’utilisateur. Aussi, la

Page 265: thèse dauphine - nombreux documents chercheurs +

Conclusion générale

262

conduite de changement organisationnel est un vrai projet de structuration qui prend du temps

et de l’argent. Il faut donc accompagner l’évolution technologique dans chaque organisation

selon ses besoins et, pour cette raison, on comprend mieux pourquoi la définition des AI varie

d’un domaine à l’autre. Ainsi, par exemple, on considère généralement Google comme un AI

dans le domaine informatique parce que ses utilisateurs se contentent de la première phase de

collecte des informations. A l’opposé, un directeur appartenant au secteur de commerce et de

distribution nous a donné, en respectant la classification de leur rôle proposée dans notre

questionnaire, trois exemples de groupes d’AI auxquels son entreprise recourt : Google et Cie

pour la recherche des informations ; Hyperion, SAS, SASGraph, MapPoint pour le tri et l’aide

à l’analyse ; Calame pour la diffusion des informations. C’est là le signe d’une entreprise

stable, de grande taille et disposant des capacités pour investir dans cette technologie. Par

ailleurs, les AI peuvent être utilisés par de petits opérateurs. C’est le cas, à titre d’exemple,

des bibliothèques universitaires numérisées. Dans ce cas, les bases de données ainsi

accessibles et consultées par tous les chercheurs sont un puissant outil d’accélération du cycle

de la recherche.

A travers ces quelques exemples, on constate que chaque population d’utilisateurs identifie

ses besoins et met en place ses moyens organisationnels propres. Nous pouvons même

affirmer qu’au sein d’une même organisation, l’AI ne peut répondre à tous les besoins

exprimés par tous ses acteurs : les besoins d’un directeur diffèrent de ceux d’un concepteur…

C’est pourquoi il serait utile de poursuivre cette recherche par une étude multi-groupes

séparant les tâches des différents participants de sorte à identifier et évaluer leurs besoins

organisationnels spécifiques en fonction des fonctionnalités de l’outil technologique.

Page 266: thèse dauphine - nombreux documents chercheurs +

Bibliographie

Bibliographie

Page 267: thèse dauphine - nombreux documents chercheurs +

Bibliographie

264

ABRAHAMSON E., (1991), “Managerial fads and fashions: the diffusion and rejection of innovations”, Academy of Management Review, Vol. 16, n°3, p.586-612.

AGARWAL R., KARAHANNA E., (2000), “Time Flies When You’re Having Fun: Cognitive Absorption and Beliefs About Information Technology Usage,” MIS Quarterly, Vol. 24, n°4, p. 665-694.

AGARWAL R., PRASAD J., (1999), “Are individual differences germane to the acceptance of new information technologies?”, Decision Sciences, Vol. 30, n°2, p. 361-391.

AGUILAR F. J., (1967). Scanning the business environment. Macmillan, NY.

AHITUV N., ZIF J., MACHLIN I., (1998), “Environmental scanning and information systems in relation to success in introducing new products”, Information and Management, Vol. 33, p. 201-211.

AHONEN H. et al., (1998), “Applying data mining techniques for descriptive phrase extraction in digital document collections”, IEEE Forum on Research and Technology Advances in Digital Libraries (ADL’98), p. 2-11.

ALAMPALLI S., (2002), “Role of CI for Opportunity Assessment”, Competitive Intelligence Magazine, Vol. 5, n°4, p. 21-24.

ALAVI M., CARLSON P., BROOKE G., (1989), “The ecology of MIS research: a twenty year status review”, in: the proceedings of the tenth International Conference on Information Systems, DeGross J.I., Hendersonm, J.C. & Konsynski, B.R. (eds), p. 363-375. Boston, MA.

ALLEN B., (1994), “Case-based reasoning: business applications”, Communications of the ACM, Vol.37, n°3, p. 40-42.

ANTHONY R.N., (1965). Planning and control systems: a framework for analysis. Harvard university, Boston, USA.

APTE C., WEISS S., (1997), “Data mining with decision trees and decision rules”, Future Generation Computer System, Vol.13, p. 197-210.

AURUM A., WOHLIN C., (2003), “ The fundamental nature of requirements engineering activities as a decision-making process”, Information and Software Technology, n°45, p. 945-954.

BAECKER R., GRUDIN J., BUXTON W., et al., (1995). Readings in Human-Computer Interaction: Toward the Year 2000. 2nd edition San Francisco, CA: Morgan Kaufmann Publishers, Inc.

BAILEY J., BAKOS Y., (1997), “An exploratory study of the emerging role of electronic intermediaries”, International Journal of Electronic Commerce, Vol. 1, n°3, p. 7-20.

BAILEY J.E., PEARSON S.W., (1983), “Development of a tool for measuring and analysing computer user satisfaction”, Management science, p. 530-545.

Page 268: thèse dauphine - nombreux documents chercheurs +

Bibliographie

265

BAJAJ A., NIDUMOLU S.R., (1998), “A feedback model to understand information system usage”, Information and Management, n°33, p. 213-224.

BALAKRISHNAN, WERNERFELT, (1986), “Technical change, competition and vertical integration”, Strategic Management Journal, Vol. 7, n°4, p.347-359.

BANKER R. D., KAUFFMAN R. J., (2004), “The Evolution of Research on Information Systems: A Fiftieth-Year Survey of the Literature”, Management Science, Vol. 50, n°3, March, p.281–298.

BARKI H., HARTWICK J., (1994), “Rethinking the concept of user involvement and user attitude”, MIS Quarterly, Vol. 18, n°1, p.59-79.

BARNEY J., (1991), “Firm resources and sustained competitive advantage”, Journal of Management, n°17.

BARR D.S., MANI G., (1994), “ Using neural nets to manage investments”, AI Expert, p.16-21.

BARUA A., RAVINDRAN S., WHINSTON A. B., (1997), “Efficient selection of suppliers over the Internet”, Journal of Management Information Systems, Vol.13, n°4, p.117-137.

BASKERVILLE R., MYERS M., (2002), “Information Systems as a Reference Discipline,” MIS Quarterly, Vol.26, n°1, p. 1-14.

BEAL R.M., (2000), “ Competing effectively : Environmental scanning, competitive strategy, and organizational performance in small manufacturing firms” , Journal of Small Business Management, Vol.38, n°1, p.27-47.

BEARD J.W., PETERSON T.O., (1988), “A taxonomy for the study of human factors in Management Information Systems (MIS),”in J. M. Carey (ed.), Human Factors in MIS, p.7-26, Norwood, NJ: Ablex.

BECKER B.G., (1997), “Using Mine Set for knowledge discovery”, IEEE Computer Graphics and Application, p. 75-78.

BELKIN R., BROOKS H., ODDY R., (1986), “Using structural representations of anomalous states of knowledge for choosing document retrieval strategies”, in Proceedings of of the association of computing machinery special Internet Group of Information Retrieval (ACM/SIGIR’86), Italie, p.11-22.

BENBASAT I., (2002) “HCI Research in MIS: A Personal View,” Panel presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

BENBASAT I., NAULT B.R., (1990), “An evaluation of empirical research in managerial support systems”, Decision Support Systems, Vol.6, p. 203-226.

BENDOLY E., (2003), “Theory and support for process frameworks of knowledge discovery and data mining from ERP systems”, Information and Management, Vol. 40, p. 639-647.

Page 269: thèse dauphine - nombreux documents chercheurs +

Bibliographie

266

BERSON A., SMITH S.J., (1997). Data warehousing, Data mining and OLAP. McGraw-Hill, New York.

BERTINO E., CATANIA B., ZARRI G. P., (2001). Intelligent Database Systems. Addison-Wesley, ACM Press.

BHATTACHERJEE A., (2001), “Understanding Information Systems Continuance: An Expectation-Confirmation Model,” MIS Quartely, Vol. 25, n°3, p. 351-370.

BISP S., SORENSON E., GRUNERT K., (2001) “ Using the key success factor concept in competitor intelligence and benchmarking”, Competitor Intelligence Review, Vol. 9, n°3, p.55-67.

BLANKENSHIP A. B., BREEN G. E., DUTKA A., (1998). State of the art, Marketing research, 2nd Edition, NTC Business Books, Lincdnwood, IL.

BONCELLA R. J., (2003), “ Competitive Intelligence and the Web”, Communications of the Association for Information Systems, Vol. 12, p. 327-340.

BOSE I., MAHAPATRA R. K., (2001), “ Business data mining – a machine learning perspective”, Information and Management, Vol. 39, p. 211-225.

BOURNOIS F., ROMANI P-J., (2000). L’intelligence économique et stratégique dans les entreprises françaises. Ed. Economica, Paris.

BOYED, B.K., FULK J., (1996), “Executive scanning and perceived uncertainty: a multidimensional model”, Journal of Management, Vol. 22, n°1, p.1-21.

BRACHMAN R.J., KHABAZA T., KLOESGEN W., et al., (1996), “Mining business databases”, Communications of the ACM, Vol.39, n°11, p. 42-48.

BRIOT J. P., DEMAZEAU Y., Principes et architectures des systèmes multi-agents, Lavoisier, 2001.

BRITTON C., (2002), “Deconstructing Advertising: What Your Competitor's Advertising Can Tell You About Their Strategy”, Competitive Intelligence Magazine, Vol. 5, n°1, p.15-19.

BROCKHOFF K., (1998), “Technology management as part of strategic planning – some empirical results”, R&D Management, Vol.28, n°3, p. 129-138.

BROMILEY, CUMMINGS, (1995), “Transactions costs in organisations with trust”, Research in Negociation in Organizations, JAI Press, Greenwich, CT, p.219-247.

BROWN K., (2001). The interactive Market Place. NY: McGraw-Hill.

BURREL G., MORGAN, G. (1979). Sociological paradigms and organizational analysis. Heinemann, London, UK.

BURWELL H. P., (1999). Online Competitive Intelligence: Increase Your Profits Using Cyber-intelligence. Tempe, Arizona: Facts on Demand Press.

Page 270: thèse dauphine - nombreux documents chercheurs +

Bibliographie

267

BUTA P., (1994), “Mining for financial knowledge with CBR”, AI Expert, p. 34-41.

CAGLAYAN A., HARRISON C., (1998). Les agents. Applications bureautiques, Internet et Intranet. Masson, Paris, 1998 pour la traduction française.

CANTER L. A., SIEGEL M. S., (1994). How to make a fortune on the information superhighway: everyone’s guerrilla guide to marketing on the Internet and other on-line services. Harper Collins, New York.

CAREY J. (1991). Human Factors in Information Systems: An Organizational Perspective, Greenwich, CT: Ablex Publishing Corporation.

CAREY J. (1995). Human Factors in Information Systems: Emerging Theoretical Bases. Greenwich, CT: Ablex Publishing Corporation.

CAREY J. (1997). Human Factors in Information Systems: The Relationship Between User Interface Design and Human Performance. Greenwich, CT: Ablex Publishing Corporation.

CAREY J. (2002), “Human Computer Interaction Research in the MIS Discipline,” Panel presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi.

CAREY J., (1988). Human Factors in Management Information Systems. Greenwich, CT: Ablex Publishing Corporation.

CAREY J., GALLETTA D., KIM J., et al., (2004), “The role of human-computer interaction in management information systems curricula: A call to action”, Communications of the association for Information Systems, Vol.13, p. 357-379.

CARLSSON C., WALDEN, (1995), “Strategic management with a hyper-knowledge support system”, Proceedings of the HICSS’27 Conference, IEEE Computer Society Press, Los Alamitos, CA.

CARMINES E. G., ZELLER R.A., (1979), “Reliability and validity assessment”, Sage University Paper Series on Quantitative Applications in the social sciences, p. 07-017. Sage, Beverly Hills, CA.

CARON-FASAN M-L., (1997). Veille stratégique: création de sens à partir de signaux faibles, Thèse, Grenoble.

CARTER C., CATLETT J., (1987), “Assessing credit card applications using machine learning”, IEEE Expert Fall, p. 71-79.

CASH J., NUNAMAKER J. (1991). The information systems research challenge. Vol. III: Survey Research Methods, Havard Business School Press, Boston, MA, USA.

CASH J., NUNAMAKER J., (1989). The information systems research challenge. Vol. I: Qualitative Research Methods, Havard Business School Press, Boston, MA, USA.

CASH J., NUNAMAKER J., (1990). The information systems research challenge. Vol. II: Experimental Research Methods, Havard Business School Press, Boston, MA, USA.

Page 271: thèse dauphine - nombreux documents chercheurs +

Bibliographie

268

CHAKRABARTI S., DOM B.E., KUMAR S.R., et al., (1999), “Mining the web’s link structure”, IEEE Computer, p. 60-67.

CHAU P.Y.K., (1996), “An empirical investigation on factors affecting the acceptance of CASE by systems developers”, Information and Management, Vol.30, p. 269-280.

CHEN W.S., HIRSCHHEIM R., (2004), “A paradigmatic and methodological examination of information systems research from 1991 to 2001”, Information Systems Journal, Vol.14, n°3, July, p. 197-235.

CHEVALLET J. P., (2002), « Les interfaces pour la recherche d’information », dans C. Paganelli (dir), Interaction homme-machine et recherche d’information, Hermès Sciences Publications, Paris.

CHILD J., (1972), “Organisational structure, environment, and performance: the role of strategic choke”, Sociology, n°6, p.2-22.

CHIN W., (1998), “Issues and opinion on structural equation modelling”, MIS Quarterly, Vol. 22, n°1, March, p. 7-16.

CHIN W., GOPAL A., (1995), “Adoption intention in GSS: Relative importance of beliefs”, Data Base, Vol. 26, n°2/3, May/August, p. 42-63.

CHIN W., TODD P. A. (1995), “On the use, Usefulness, and Ease of Use of Structural Equation Modelling in MIS Research: A note of Caution,” MIS Quarterly, Vol. 19, n°2, June p. 237-246.

CHOO C.W., DETLOR B., TURNBULL D., (1998), “A behavioural model of information seeking on the web: Preliminary results of a study of how managers and IT specialists use the web”, 6th annual meeting of the American Society for Information Science.

CHUA W. F., (1986), « Radical developments in accounting thought », The Accounting Review, Vol. 61, p. 601-632.

CODD E.F. et al., (1993), « Providing OLAP to user-Analysts: An IT Mandate », a white paper, commissioned by Arbor Software (now Hyperion Solutions).

CODD E.F., (1970), “A relational model for large shared data banks”, Communications of the ACM, Vol. 13, n°6, p. 370-387.

COHEN P., COHEN J., TERESI J., et al., (1990), “Problems in the Measurement of Latent Variables in Structural Equations Causal Models”, Applied Psychological Measurement, Vol.14, n°2, p. 183-196.

COLLINS J. et al., “A multi agents contracting system for plan execution. In Workshop on Artificial Intelligence and Manufactoring : State of the Art and State of Practice”, AAAI Press, Albuquerque, NM, August 1998, p.63-68.

COMPEAU D., HIGGINS C. A., HUFF S., (1999), “Social cognitive theory and individual reaction to computing technology: a longitudinal study”, MIS Quarterly, Vol. 23, n°2, p. 145-158.

Page 272: thèse dauphine - nombreux documents chercheurs +

Bibliographie

269

COMPEAU D., HIGGINS C., (1995), “Application of Social Cognitive Theory to Training for Computer Skills,” Information Systems Research, Vol. 6, n°2, p.118-143.

COMPEAU D., HIGGINS C., (1995), “Computer Self-Efficacy: Development of a Measure and Initial Test,” MIS Quarterly, Vol.19, n°2, p. 189-211.

CORVAISIER F. et al., (1997), « Recherche assistée de documents indexés sur l’expérience : mesures de similarités des épisodes de recherche sur le web », dans Ingénierie des connaissances.

COSTE-MANIERE E., WANG H.H., ROCK S.M., et al., (1996), “Joint evaluation of mission programming for underwater robots”, in Proceedings of IEEE International Conference on Roboticsand Automation, Minneapolis, MN. IEEE Computer Society Press: Los Alamitos, CA; 2492-2497.

COTE M. et al., (2001), “NetSA : Une architecture multi agents réutilisable pour les environnements riches en informations”, Information Interaction Intelligence, vol. 1, n°2.

CUNLAN M.J., (1983), “Environmental scanning: the effects of task complexity and source accessibility on information gathering behavior”, Decision Sciences, Vol. 14, p. 194-205.

DAFT R.L., (1992). Organization theory and design. NY: West Publishing Company.

DAFT R.L., SORMUNEN J., PARKS D., (1988), “Chief executive scanning, environmental characteristics, and company performance: An empirical study”, Strategic Management Jounal, Vol. 9, p.123-139.

DASGUPTA S. et al., (2002), “User acceptance of e-collaboration technology: An extension of the technology acceptance model”, Group Decision and Negociation, Vol.11, n°2, March, p.87-100.

DAVID J.F., MONOD E., (1997), « Les agents intelligents : une question de recherche », Systèmes d’Informations et Management, n°2.

DAVIS F.D., (1989), “Perceived usefulness, perceived ease of use, and user acceptance of information technologies”, MIS Quarterly, Vol. 13, n°3, p.319-340.

DAVIS F.D., (1993), “User acceptance of information technology: system characteristics, user perceptions, and behavioural impacts”, Intentional Journal of Man Machine Studies, Vol. 38, p. 475-487.

DAVIS F.D., BAGOZZI R., WARSHOW P.R., (1989), “User acceptance of computer technology: a comparison of two theoretical models”, Management Science, Vol. 35, n°8, p. 982-1003.

DAVIS, F. (2002), “Human Computer Interaction Research in the MIS Discipline,” Panel Presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

DELONE W.H., MCLEAN E.R., (1992), “Information Systems Success: the quest of the dependent variable”, Information Systems Research, March, p.60-95.

Page 273: thèse dauphine - nombreux documents chercheurs +

Bibliographie

270

DELONE W.H., MCLEAN E.R., (2003), “The Delone and McLean model of information success: A ten-Year update”, Journal of Management Information Systems, Vol.19, n°4, p.9-30.

DENNETT D.C., (1991), “Consciousness imagined”. In Consciousness Explained, Dennett DC. Little, Brown and company: Boston; p. 431-435.

DESANCTIS G., GALLUPE R.B., (1987), “A foundation for the study of group decision support systems”, Management Science, Vol. 33, p. 589-609.

DESANCTIS G., POOLE M.S., (1994), « Capturing the complexity in advanced technology use : adaptative structuration theory”, Organization science, Vol. 5, p. 121-147.

DEWITT M., (1997). Competitive intelligence, Competitive advantage. Abacus, Grand Rapids, MI.

DICKSON G., SENN J., CHERVANY N., (1977), “Research in Management Information Systems: the Minnesota experiments”, Management Science, Vol. 23, p. 913-923.

DIESING P., (1991). How Does Social Science Work? Reflections on Practice. Pittsburgh, PA: University of Pittsburgh Press.

DISHAW M. T., STRONG D.M., (1998), “Supporting Software Maintenance with Software Engineering Tools: A Computed Task-Technology Fit Analysis,” Journal of Systems and Software, Vol. 44, n°2, p. 107-120

DISHAW M.T., STRONG D.M., (1999), “Extending the technology acceptance model with task-technology fit constructs”, Information and Management, Vol. 36, p. 9-21.

DOLL W. J., TORKZADEH G., (1991), “The measurement of end user computing satisfaction: Theoritical and methodological issues”, MIS Quarterly, Vol. 15, n°1, p. 5-10.

DOLL W. J., TORKZADEH G., (1998), “Developing a multidimensional measure of system-use in an organizational context”, Information and Management, Vol.33, p. 171-185.

DOLL W.J., HENDRICKSON A., DENG X., (1998), “Using Davis’s Perceived Usefulness and Ease-of use Instruments for Decision Making: A Confirmatory and Multigroup Invariance Analysis”, Decision Sciences, Vol.29, n°4, p. 839-869.

DOLLINGER J.M., (1984), “Environmental boundary spanning and information processing effects on organizational performance”, Academy of Management Journal, Vol.27, n°2, p. 51-368.

DOURS D., (1992), « L’ordinateur », Encyclopédie de Management, Librairie Vuibert.

DREYFUS H. L., (1997). What Computers still can’t do. MIT Press, Cambridge, MA.

DUNKAN, (1972), “Characteristics of organizational environments and perceived uncertainty”, Administrative Science Quartely, Vol.17, p.313-327.

DURAND B., (1996). Simulation multi-agents et épidémiologie opérationnelle. Etude d’épizooties de fièvre aphteuse. Thèse. Université de CAEN, 20/06/1996.

Page 274: thèse dauphine - nombreux documents chercheurs +

Bibliographie

271

EGELHOFF W. G., (1982), “Strategy and structure in multinational corporations: an information-processing approach”, Administrative Science Quaterly, n°27, p. 435-458.

EIERMAN M.A., Niederman F., Adams C., (1995), “DSS theory: A model of constructs and relationships”, Decision Support System, Vol. 14, p.1-26.

EL SAWY, OMAR A. (1985), “Personal Information Systems for strategic scanning in turbulent environments: can the CEO go on line?”, MIS Quarterly, Mars, p.53-60.

ENGEL J., BLACKWELL, (1982). Consumer Behavior. 4th ed. CBS College Publishing.

ETEZADI-AMOLI J., FARHOOMAND A.F., (1996), “A structural model of end user computing satisfaction and user performance”, Information and Management, Vol. 30, p.65-73.

ETTORE B., (1995), “Managing competitive intelligence”, Management Review, Vol.10, p. 15-19.

FAHAY N., (1989), “Linking changes in revealed causal maps and environmental change: an empirical study”, Journal of Management Studies, Vol. 26, p.361-378.

FARHOOMAND A.F., DURY D.H., (1999), “A historiographical examination of information systems”, Communications of the Association for Information Systems, Vol. 1, p. 1-27.

FAYYAD U., PIATETSKY-SHAPIRO G., SMYTH P., (1996), “From data mining to knowledge discovery in databases”, AI Magazine, p. 37-53.

FERBER J., (1995). Les systèmes multi agents. InterEditions, Paris.

FINNERAN C., ZHANG P., (2002), “The Challenges of Studying Flow within a Computer-Mediated Environment”, in Proceedings of the Americas Conference on Information Systems, Dallas, TX, p. 1047-1054

FLEISHER C. S., BENSOUSSAN B. E., (2003). Strategic and Competitive Analysis: Methods and Techniques for Analyzing Business Competition. Upper Saddle River, New Jersey: Prentice Hall.

FOISEL R., (1998). Modèle de réorganisation de systèmes multi-agents: une approche descriptive et opérationnelle. Ph D. Thesis, Université Henri Poincaré, Novembre / 1998.

FORNELL C., BOOKSTEIN F.L., (1982), “Two Structural equation Models: LISREL and PLS Applied to Consumer Exit-Voice Theory”, Journal of Marketing Research, Vol. 19, n°4, p. 440-452.

FORNELL C., JAESUNG C., (1994), “Partial Least Squares”, in Richard P. Bagozzi, ed., Advanced Methods of Marketing Research, Oxford, England: Blackwell Publishers, p. 52-78.

FORNELL C., LARCKER D.F., (1981), “Evaluating structural equation models with unobservable variables and measurement error”, Journal of Marketing Research, Vol. 18, February, p. 39-50.

Page 275: thèse dauphine - nombreux documents chercheurs +

Bibliographie

272

FRANZ C.R., ROBEY D., (1986), “Organizational context, User involvement, and the usefulness of information systems”, Decision Sciences, Vol. 17, n°3, p.329-356.

FULD L., (1985). Competitor intelligence: how to get it ? How to use it ?. John Wiely, NY.

FULD L., (1995). The new competitor intelligence: the complete resource for finding, analysing and using information about your competitors. John Wiley, NY.

GALBRAITH J. R., (1973). Desining Complex Organizations. Reading, MA: Addison-Wesley.

GALBRAITH J. R., (1977). Organizational Design. Reading, MA: Addison-Wesley.

GALLETTA D., (2002), “HCI Research in MIS: A Personal View”, Panel Presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

GALLIERS R.D., (1991), “Choosing appropriate information systems research approaches: a revised taxonomy”, In Information Systems Research: Contemporary Approaches and Emergent Traditions, Nissen, H-E., Klein H.K. & Hirschheim, R. (eds), p. 327-345. Elsevier Science Publishers, North Holland.

GALLIERS R.D., LAND F., (1987), “Choosing appropriate information systems research methodologies”, Communications of the ACM, Vol. 30, p. 900-902.

GEFEN D., et al., (2000), “Structural equation modelling and regression: guidelines for research practice”, CAIS, Vol.4, Art.7, Octobre.

GEFEN D., KEIL M., (1998), “The impact of developer responsiveness on perceptions of usefulness and ease of use: an extension of the technology acceptance model”, The data base for advances in information systems, Vol. 29, n°2, p. 35-49.

GELDERMAN M., (1998), “The relation between user satisfaction, usage of information systems and performance”, Information & Management, Vol. 34, n°1, p. 11-18.

GELDERMAN M., (1998), “Translation and validation of the Doll and Torkzadeh end user computing satisfaction instrument”, in: Hugh J. Watson (Ed.), Proceedings of HICSS 31, Vol.VI, IEEE Computer Press, January, p. 537-546.

GERSHON N., EICK S.G.,(1997), “Information visualization applications in the real world”, IEEE Computer Graphics and Application, p. 66-70.

GHANI J. (1995), “Flow in Human Computer Interactions: Test of a Model”, in J. Carey (Ed.), Human Factors in Information Systems: Emerging Theoretical Bases.Norwood,NJ: Ablex Publishing Corp.

GIALD T., GIALD B., (1986), “Business Intelligence. The quiet revolution”, Sloan Management Review, Vol. 27, n°4, p.53-62.

GLITMAN E., (2000), “Comprehending Irrational Competitor Actions through Futures-Based Analysis”, Competitive Intelligence Magazine, Vol. 3, n°4, p. 29-32.

Page 276: thèse dauphine - nombreux documents chercheurs +

Bibliographie

273

GOLES T., HIRSHHEIM R., (2000), “The paradigm IS dead, the paradigm is dead… long live the paradigm: the legacy of Burrel and Morgan”. Omega, Vol. 28, p. 249-268.

GOODHUE D. L., (1995), “Understanding User Evaluations of Information Systems”, Management Science, Vol. 41, n°12, p. 1827-1844.

GOODHUE D. L., THOMPSON R. L., (1995), “Task-Technology Fit and Individual Performance”, MIS Quarterly, Vol. 19, n°2, p.213-236.

GORDON I., (1989). Beat the competition ! How to use competitive intelligence to develop winning strategies ?. Blackwell, Oxford.

GORRY G.A., SCOTT M.S., (1971), “A framework for management information systems”, Sloan Management Review, Vol. 13, n°1, p. 55-70.

GROVER V., SAEED K.A., (2004), “Strategic orientation and performance of internet-based businesses”, Information Systems Journal, Vol.14, n°1, January, p. 23-42.

GUDIVADA V. N., (1997), “Information retrieval on the world wide web”, IEEE Internet Computing, Vol. 1, n°6, p. 100-109.

GULATI R., (1998), “Alliances and Networks”, Strategic Management Journal, Vol.19, n°4, p. 293-317.

GUTTMAN R. H., MAES P., (1998), “Agent-mediated Integrative negotiation for Retail Electronic Commerce”, MIT Media Laboratry.

GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1997), “A Real-Life Experiment in Creating an Agent Marketplace”, MIT Media Laboratry.

GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1998), “Results from a Multi-Agent Electronic Marketplace Experiment”, MIT Media Laboratry.

GUTTMAN R. H., MOUKAS A. G., MAES P., (1998), “Agent-mediated electronic commerce: A survey”, Software Agents Group, MIT Media Laboratory.

GUYOT B., (2004), « Eléments pour une approche informationnelle dans les organisations », Sciences de la Société, n°63, Octobre.

HAMBRICK D.C., (1982), “Environmental scanning in U.S. corporations”, Long Range Planning, Vol.17, n°2, p. 117-128.

HAN J. et al., (1997), “BD miner: a system for data mining in relational databases and data warehouses”, in Proceedings of CASCON’97: Meetings of Minds, Toronto, Canada.

HERRING J. P., (1988), “Building a business intelligence system”, The Journal of Business Strategy, May-June.

HERRING J. P., (1998)“What is intelligence analysis?”, Competitive Intelligence Magazine, Vol. 1, n°2, p.13-16. http://www.scip.org/news/cimagazine_article.asp?id=196 (current September 1, 2003)

Page 277: thèse dauphine - nombreux documents chercheurs +

Bibliographie

274

HERRING J. P., KLEIN R. D., HARRIS M., BOUREY A. T., (2002), “Corporate Culture as a Tool for Anticipating the Competition”, Competitive Intelligence Magazine, Vol. 5, n°4, p. 6-10.

HEWETT T., BAECKER R., CARD S., et al., (1992). ACM SIHCHI Curricula for Human-Computer Interaction, New York, NY: Association for Computing Machinery.

HILL T., SMITH N., MANN M., (1986), “Communicating Innovations: Convincing Computer Phobics to Adopt Innovative Technologies,” in R. J. Lutz (ed.), Advances in Consumer Research (Volume 13), Provo, UT: Association for Consumer Research, p. 419-422.

HILL T., SMITH N., MANN M., “Role of Efficacy Expectations in Predicting the Decision to User Advanced Technologies: The Case of Computers,” Journal of Applied Psychology, Vol. 72, n°2, p. 307-313.

HIRSHHEIM R., KLEIN H.K., (1992), “Paradigmatic influences on information systems development methodologies: evolution and conceptual advances”, Advances in Computers, Vol. 34, p. 293-392.

HIRSHHEIM R., KLEIN H.K., (2003), “Crisis in the information systems field? A critical reflection on the state of the discipline”, Journal of the Association for Information System, Vol. 4, p. 237-293.

HOFFMAN D., NOVAK T.P., (1996), “Marketing in Hypermedia Computer-Mediated Environments: Conceptual Foundations,” Journal of Marketing, Vol. 80, n°4, p. 50-68.

HOLDER B. J., (2001), “Scouting: a Process for Discovering, Creating, and Acting on Knowledge”. Competitive Intelligence Magazine, Vol. 4, p. 17-21.

HOYT B., (2002), “Early Warning: the Art of Inference”. Competitive Intelligence Magazine, Vol. 5, n°1, p. 10-14. Hypersearching the Web. (1999). Scientific American. http://melody.syr.edu/hci/amcis02_panel/Zhang_HCI_Panel_Description_071502.pdf

HU P.J., CHAU P.Y.K., LIU SHENG O.R., YAN TAM K., (1999), “Examining the technology acceptance model using physician acceptance of telemedicine technology”, Journal of Management Information Systems, Vol. 16, n°2, p. 91-112.

HUBER G. P., (1990), “A theory of the effects of advanced information technologies on organizational design, intelligence, and decision making”, Academy of Management Review, Vol.15, p. 47-71.

HUI S. C., JHA G., (2000), « Application Data Mining for costumer service support », Information and Management, Vol. 38, p. 1-13.

HULLAND J., (1999), “Use of partial least squares (PLS) in strategic management research: A review of four recent studies”, Strategic Management Journal, Vol. 20, n°2, p. 195-204.

HUOT C., (1992). Analyse relationnelle pour la veille technologique vers l’analyse automatique des bases de données. Thèse. Université de droit, d’économie et des sciences d’Aix-Marseille.

Page 278: thèse dauphine - nombreux documents chercheurs +

Bibliographie

275

IGBARIA M., CRAGG P., ZINATELLI N., CAVAYE A., (1997), “Personal computing acceptance factors in small firms : a structural equation model”, MIS Quarterly, September, p. 279-302.

INMON W.H., (1992). Building the Data Warehouse. QED Information Sciences, Wellesley, MA.

ISAAC H., (2003), « Utilisation d’Internet pour la veille stratégique : facteurs déterminant des pratiques des entreprises françaises », 8ème congrès de l’AIM.

IVES B., OLSON M., BAROUDI J., (1983), “The measurement of user information satisfaction”, Communications of the ACM, Vol. 26, n°10, p. 785-793.

JACKSON C.M., CHOW S., LEITCH R.A., (1997), “Toward an understanding of the behavioral intention to use an information system”, Decision Sciences, Vol. 28, n°2, p. 357-389.

JAKOBIAK F. (1988). Maîtriser l’information critique. Ed. d’organisation, Paris.

JENNINGS N. R. et al., (1998), “A road of map of agent research and development”, In Journal of Autonomous Agents and Multi agents Systems, Vol.1, n°1, p. 7-38.

JENNINGS N.R., WOOLDRIDGE M.J., (1998). “A brief introduction to software agent technology”, in Agent Technology: Foundations, Applications, and Markets, Jennings NR, Wooldridge MJ (eds). Springer-Verlag: New York, p. 29-48.

JOHN G.H., MILLER P., KERBER R., (1996), “Stock selection using rule induction”, IEEE Expert, p. 52-58.

JOHN G.H., ZAHO Y., (1997), “Mortgage data mining”, in Proceedings of the IEEE/IAFE Conference on Computational Intelligence for Financial Engineering, p. 232-236.

JONES C., HESTERLY W.S., BORGATTI S.P., (1997), “A general theory of network governance : Exchange conditions and social mechanisms”, The Academy of Management Review, Vol.22, n°4, p..

JOURESTON J., (2000), “Using Intelligent Search Agents for CI”, Competitive Intelligence Magazine, Vol. 3, n°1, p.32-36.

KAHANER L., (1998). Competitive Intelligence: How to Gather, Analyze and Use Information to Move Your Business to the To.: Touchstone.

KALIKA M., (1992), « Informatique et Organisation », Encyclopédie de Management, Librairie Vuibert, Janvier .

KALIKA M., (2005). Le mémoire de Master, Dunod, Paris.

KALIKA M., ISAAC H., JOSSERAND E., et al., (2003). Le e-Management: quelles transformations pour l’entreprise ?. Editions Liaisons, Paris.

KALIKA M., KEFI H., (2004). L’évaluation des systèmes d’information, une perspective organisationnelle. Economica, Paris.

Page 279: thèse dauphine - nombreux documents chercheurs +

Bibliographie

276

KARAHANNA E., STRAUB D.W., (1999), “The psychological origins of perceived usefulness and ease of use”, Information and Management, Vol. 35, n°4, p.237-250.

KASSLER H., (2000). “Competitive Intelligence and the Internet: Going for the Gold”, Information Outlook, Vol. 4, n°2, p.37-42.

KAUFFMAN R. J., MARCH S. T., WOOD C. A., (2000), “Design Principles for long lived Internet Agents”, International Journal of Intelligent in Accounting, Finance and Management, Vol.9, n°4, Décembre.

KEATS, HITT, (1988), “A cause model of linkages among environmental dimensions, macro organizational characteristics, and performance”, Academy of Management Journal, Vol. 31, p. 570-598.

KEFI H., (2002). Evaluation des technologies et systèmes d’information: cas d’un entrepôt de données implanté dans une institution financière. Etude orientée processus et intégrée dans le contexte institutionnel de l’organisation. Thèse, Université Paris IX-Dauphine.

KEIL M., BERANEK P.M., KONSYNSKI B.R., (1995), “Usefulness and ease of use: field study evidence regarding task considerations”, Decision support systems, Vol.13, p. 75-91.

KHALIFA M., CHENG S.K.N., (2002), “Adoption of mobile commerce: Role of exposure”, Proceedings of the 35th Hawaii International Conference on System Sciences.

KILLINGSWORTH B., KLETKE M., MACKAY J., TRUMBLY J., CAREY J., (1995) “Human Factors in Information Systems: A Position Treatise,” in J. Carey (ed.) Human Factors in Information Systems: Emerging Theoretical Bases, Norwood, NJ: Ablex Publishing Corporation, p.1-25.

KIM S.H., NOH H.J., (1997), “Predictability of interest rates using data mining tools: a comparative analysis of Korea and the US”, Expert Systems with Applications, Vol. 13, n°2, p. 85-95.

KIMBALL R., (1996). The data warehouse Toolkit. John Wiley & Sons, New York, NY.

KLEIN M., DELLAROCAS, (1999), “Exception handling in agent systems”, in Proceedings of the third International Conference on Autonomos Agents, Seattle, Washington. ACM Press: NY, p. 62-68.

KLUSCH M., (2001), “Information agent technology for the Internet: A survey”, Data & Knowledge Engineering, Vol. 36, p.337-372.

KOGUT B., (1985), “Designing Global Strategies: Comparative and Competitive Value Added Chains”, Sloan Management Review, Vol. 26, n°4, Summer, p. 15-28.

KOKKINAKI A.I., (1997), “On atypical database transactions: identification of probable frauds using machine learning for user profiling”, in Proceedings of the IEEE Knowledge and Data Engineering Exchange Workshop, Newport Beach, CA, p. 107-113.

Page 280: thèse dauphine - nombreux documents chercheurs +

Bibliographie

277

KOLODNER J., (1993). Cased-Based Reasoning. Morgan Kaufmann, San Mateo, CA.

KRISHNAN R., LI X., STEIER D., ZHAO L., (2001), “On Heterogeneous Database Retrieval: A Cognitively Guided Approach,” Information Systems Research, Vol. 12, n°3, p. 286-301.

KUOKKA D. et al., (1998). Matchmaking for Information Agents. Readings in Agents. N. M. Huhns & M. P. Singh editors.

LAGUS K. et al., (1999), “WEBSOM for textual data mining”, Artificial Intelligence Review, On-line document available at URL:http://websom.hut.fi/websom/doc/publications.html, in press.

LAMB R., KING J.L., KLINGR., (2002), “Informational Environments: organizational contexts of online information use”, Journal of the American Society for Information Science and Technology, in press.

LANDRY M., BANVILLE C., (1992), “A disciplined methodological pluralism of MIS research”, Accounting, Management and Information Technology, Vol. 2, p.77-97.

LEBART L., MORINEAU A. et PIRON M. (1995). Statistique exploratoire multidimensionnelle. Dunod, Paris.

Le MOIGNE, J.L. (1990). La modélisation des systèmes complexes. Dunod.

LEFEBURE R., VENTURI G., (2001). Data Mining : Gestion de la relation client. Personnalisation de sites web. Editions Eyrolles.

LEGRIS P., INGHAM J., COLLERETTE P., (2003), “Why do people use information technology? A critical review of the technology acceptance model”, Information and Management, Vol. 40, p. 191-204.

LEMOIGNE J-L., (1994). Le constructivisme. ESF éditeur. (Tome1 : Des fondements ; Tome2 : Des épistémologies)

LENT B., et al., (1997), “ Discovering trends in text databases”, in Proceedings of 3rd International Conference on Knowledge Discovery and Data Mining (KDD’97), p. 139-144.

LESCA H. (1986). Systèmes d’information pour le management stratégique. Ed. Mac Graw Hill, Paris.

LESCA H. (1994).Veille stratégique. Ed. Aster.

LESCA H., (2001), « Veille stratégique pour le management stratégique. Etat de la question et axes de recherche », in Economies et Sociétés, Série Sciences de Gestion, SG n°20, p.31-50.

LESCA H., (2003). Veille stratégique, La méthode LESCAnning. EMS.

LESCA H., CARON M-L., (1995), « Veille stratégique : créer une intelligence collective au sein de l’entreprise », Revue Française de Gestion, Sept-Oct, p.58-68.

Page 281: thèse dauphine - nombreux documents chercheurs +

Bibliographie

278

LESCA H., CHOKRON M., (2000), « Intelligence d’entreprise : retours d’expériences », AIM.

LEWIS F.L., FITZGERALD M., LIU K., (1996). “Robotics”. ACM Computing surveys, Vol. 28, p.81-84.

LIANG T-P., HUANG J-S., (1998), “An empirical study on consumer acceptance of products in electronic markets: A transaction Cost Model”, Decision Support System, Vol.24.

LIU S., (1998), “Business environment scanner for senior managers: towards active executive support with intelligent agents”, Expert Systems with Applications, Vol.15, p.111-121.

LOOSE R. M., (1998). Text retrieval and filtering. Kluwer, Dordrecht.

LUCAS H.C., SPITLER V.K., (1999), “Technology use and performance: a field study of broker workstations”, Decisions Sciences, Vol. 30, n°2, p. 291-311

MAES P. et al., (1999), “Agents that buy and sell”, Communication of the ACM, Vol. 42, n°3, p. 30-36.

MAES P., (1994), “Agents that reduce work and information overload”, Communication of the ACM, Vol. 37, n°7, ACM Press, July, p. 31-40.

MANNILA H., TOIVONEN H., VERKAMO A.J., (1995), “Discovering frequent episodes in sequences”, in Proceedings of First International Conference on Knowledge Discovery and Data Mining, Montreal, Canada, AAAI Press, Menlo Park, CA, p. 210-215.

MARTIN M., (1995), “Human Factors in Information Systems: A Taxonomy”, in J. Carey (ed.) Human Factors in Information Systems: Emerging Theoretical Bases, Norwood, NJ: Ablex Publishing Corporation, p. 27-41.

MATHIESON K., (1991), “Predicting user intentions: comparing the technology acceptance model with the theory of planned behvior”, Information Systems Research, Vol. 2 n°3, p. 173-191.

MCCARTHY S., (1992), « Gazing at the future of Networks: Vast Flow of Information Opens many markets for entrepreneurs », Washington Post, 22 June 1992.

MCGRATH J., (1981), “Dilemmatics: The Study of Research Choices and Dilemmas,” American Behavioral Scientist, Vol. 25, n°2, p. 179-210.

MEISTER D.B., COMPEAU D.R., (2002), “Infusion of innovation adoption: an individuel perspective”, ASAC.

MELLITI T., (Décembre 2004), Interopérabilité des services web complexes. Application aux systèmes multi-agents. Thèse. Université Paris Dauphine. Laboratoire d’Analyse et Modélisation de Systèmes pour l’Aide à la Décision (LAMSAD).

MELONE N.P., (1990), “A theoretical assessment of the user –satisfaction construct in Information Systems Research”, Management Science, Vol. 36, n°1, p.76-91.

Page 282: thèse dauphine - nombreux documents chercheurs +

Bibliographie

279

MESSIER W.F., HANSEN J.V., (1988), “Inducing rules for expert system development: an example using default and bankruptcy data”, Management Science, Vol. 34, n°2, p. 1403-1415.

MIEGE B., (2003). Communication personnes systèmes informationnels. Lavoisier, Paris.

MILES RE., SNOW CC., (1978), “Organizational strategy, structure and process”, Academy of Management Review, Vol 3, n°3, p.546-563.

MINTZBERG H., RAISINGHANI D., THEORET A., (1976), “The structure of unstructured decision processes”, Adminitrative Science Quarterly, Vol. 12, n°2, p. 246-275.

MOGEL R., (2002), “Futuristic Thinking”, Competitive Intelligence Magazine, Vol.5, n°3, p.12-14.

MOORE G., BENBASAT I., (1991), “Development of an Instrument to Measure the Perceptions of Adopting an Information Technology Innovation,” Information Systems Research, Vol.2, n°3, p. 192-222.

MORIN J. (1985). L’excellence technologique. Publi-Union, Paris.

MORRIS J., MAES P., (2000). “Sardine: an agent-facilitated Airline Ticket Bidding System”, MIT media Lab.

MÜLLER J.P., (1997), “Control architectures for autonomous and interacting agents: A survey”, L. Cavedon, A.S. Rao, W.Wobcke (dir), Intelligent Agent Systems: Theoretical and practical issues, p.1-26, springer-Verlag, LNAI n°1209.

MÜLLER J.P., (1999), “The right agent (architecture) to do the right thing”, Intelligent Agent V, Springer-Verlag, LNAI n°1555, p.211-225.

MURCH R., JOHNSON T., (1999). Intelligent Software Agents, Prentice-Hall, Upper Saddle River, WJ.

NABETH T., ANGEHRN A., RODA C., (2003), “Enhancing Knowledge Management Systems with Cognitive agents”, Systèmes d’Information et Management, Vol. 8, n°2.

NANDHAKUMAR J., JONES M., (1997), “Too close for comfort? Distance and engagement in interpretive information systems research”, Information Systems Journal, Vol. 7, p.109-131.

NAYLOR E., (2002). X-Ray Your Competition: Profiling, Media Analysis and CI [electronic newsletter]. SCIP. Retrieved, from the World Wide Web: http://www.scip.org

NEGASH S., (2004), “Business Intelligence”, Communications of the Association for Information Systems, Vol.13, p.177-195.

NEWSTED P., SALISBURY D., TODD P., ZMUD R., (1997), “Measurement Issues in the Study of Human Factors in Management Information Systems,” in J. Carey (ed.) Human Factors in Information Systems: The Relationship between User Interface Design and Human Performance, Greenwich, CT: Ablex Publishing Corporation, p. 211-241.

Page 283: thèse dauphine - nombreux documents chercheurs +

Bibliographie

280

NONAKA I., TAKEUCHI H., (1995). The knowledge creating company. Oxford University Press, New York.

NONAKA I., UMEMOTO K., SENOO D., (1996), “From information processing to knowledge creation : a paradigm shift in business management”, Technology in Society, Vol.18, n°2, p. 203-218.

NOVAK T. P., HOFFMAN D.L., DUHACHEK A., (2002) “The Influence of Goal-Directed and Experiential Activities on Online Flow Experiences,” Journal of Consumer Psychology, Vol. 13, n°1/2.

NUNNALLY J.C. (1978). Psychometric theory. (2nd ed.). New York; McGraw-Hill.

ORLIKOWSKI W. J., (1993), “CASE tools as organizational change: investigating incremental and radical changes in systems development”, MIS Quarterly, Vol.17, p.309-340.

ORLIKOWSKI W. J., BAROUDI J.J., (1991), “Studying information technology in organisations: research approaches and assumptions”, Information Systems Research, Vol. 2, p.1-28.

ORLIKOWSKI W. J., ROBEY D., (1991), “Information technology and the structuring of organizations”, Information Systems Research, Vol. 2, p.143-169.

OUZROUT Y., KABACHI N., VINCENT L., (1996), « Une société d’agents pour la prise de décision dans les organisations productives », IA Distribuée et SMA, JFIAD SMA’96, J. P. Müller, J. Quinqueton, Hèrmes.

PAGANELLI C., (2002). Intercation homme-machine et recherche d’information. Hermès Sciences Publications, Paris.

PAQUETTE G., BOURDEAU J., HENRI F., et al., (2003), « Construction d'une base de connaissances et d’une banque de ressources pour le domaine du Téléapprentissage », Sciences et technologies de l’information et de la communication pour la formation et l’éducation, Vol.10. www.cticef.org.

PARASCHIV C., (2004). Les agents intelligents pour un nouveau commerce électronique, GET et Lavoisier, Paris.

PARDO-CASTELLOTE G., SCHNEIDER S.A., CANNON R.H., (1995), “System design and interfaces for intelligent manufacturing workcell”, In Proceedings of the International Conference on Robotics and Automation, Nagoya, Japan. IEEE Computer Society Press: Los Alamitos, CA.

PATCHETT V, (2002), “May the Force Be With You: Michael Porter and the Five-Force Theory of Industry Analysis”. Competitive Intelligence Magazine, Vol. 5, n°4, p. 28-30.

PAVARD B., (1994). Systèmes coopératifs : de la modélisation à la conception, 1ère édition, Octares Editions.

PAWAR B. S., SHARDA R., (1997), “Obtaining business intelligence on the Internet”, Long Range Planning, Vol. 30, n°1.

Page 284: thèse dauphine - nombreux documents chercheurs +

Bibliographie

281

PEARCE J.A., CHAPMAN B.I., DAVI F.R., (1992), “ Enviroemental scanning for small and growing firmes”, Journal of Small Business Management, Vol. 20, n°3, p. 27-35.

PETRAF M. A., (1993), “The Cornerstones of Competitive Advantage: A Resource-Based View”, Strategic Management Journal, Vol. 14, p.179-191.

PLAUNT C., NORGARD B.A., (1998), “An association-based method for automatic indexing with a controlled vocabulary”, Journal of the American Society for Information Science, Vol. 49, n°10, p.888-902.

POIBEAU T., (2003). Extraction automatique d’information. Du texte brut au web sémantique. Lavoisier, Paris.

PORTER M.E., (1980), Competitive strategy : techniques for analyzing industries and competitors, The Free Press, NY.

PRAS J.Y., (2003). Le manuel du Knowledge Management, Dunod, Paris.

PREECE J., ROGERS Y., SHARP H., et al., (1994). Human-ComputerInteraction. Reading, MA: Addison-Wesley.

PRESCOTT J., (1995), “The evolution of competitive intelligence”, International Review Strategic Management, Vol. 6, p.71-90.

RAI A., LANG S.S., WELKER R.B., (2002), “Assessing the validity of IS Success Models: An empirical test and theoretical analysis”, Information Systems Research, Vol.13, n°1, March, p. 50-69.

RAUCH J., BERKA P., (1997), “Knowledge discovery in financial data- a case study”, Neural Network World, Vol. 4, n°5, p. 427-437.

REIX R., (1995). Systèmes d’information et management des organisations. Vuibert, Paris.

REIX R., DESQ S., FALLERY B., RODHAIN F., (2002), « 25 ans de recherche en système d’informations », Systèmes d’Information et Management, Vol.7, n°3.

RESNICK M., (2002), “Knowledge Management in the information age”, Journal of e-Business, Vol. 2, n°1, June.

REVELLI C. (2000). Intelligence stratégique sur Internet, Dunod, Paris.

RHEE J. H., (2001), “Does Digitization enhance firm competitiveness? E-business strategies based on information processing theory”, Journal of E-Business, Vol.1, n°1, June.

RHODES B. J., (May 2000). Just-In-Time Information retrieval. Ph. D. Thesis, MIT Media Lab.

RINDSKOPF D., ROSE T., (1988), “Some Theory and Applications of Confirmatory Second-Order Factor Analysis”, Multivariate Behavioural Research, Vol. 23, p. 51-67.

Page 285: thèse dauphine - nombreux documents chercheurs +

Bibliographie

282

RONIS D.L., YATES J.F., KIRSCHT J.P., (1989), “Attitudes, decisions and habits as determinants of repeated behavior”, In A.R. Pratkanis, S.J. Breakler, A.G. Greenwald (Eds.). Attitude structure and function (p.213-239)

ROUACH D., SANTI P., (2001). “Competitive Intelligence Adds Value: Five Intelligence Attitudes”, European Management Journal, Vol. 19, n°5, p.552-559.

ROUIBAH K., (1998). Vers un outil d’aide au traitement des Informations Fragmentaires et Incertaines : Contribution à la conception d’un outil pour la conception des Puzzles. Thèse, Université Grenoble 2.

ROUIBAH K., OULD-ALI S., (2002), “PUZZLE: a concept and prototype for linking business intelligence to business strategy”, Journal of Strategic Information Systems, Vol. 11, p. 133-152.

ROWE F., MARCINIAK R., (1997). Systèmes d’information, dynamique et organisation. Ed. Economica.

RUMELHART D.E., WIDROW B., LEHR M. A., (1994), “The basic ideas in neurol netwoks“, Communications of the ACM, Vol.37, n°3, p.87-92.

SAADOUN M., (2000). Technologies de l’information et management. Ed. Hermès.

SASISEKHARAN R., SESHADRI V., (1996), “Data mining and forecasting in large-scale telecommunication networks”, IEEE Expert, p.37-43.

SAUNDERS C., MIRANDA S., (1998), “Information acquisition in group decision making”, Information & Management, Vol. 34, n°1, p. 55-74.

SAWYEER O.O., (1993), « Environmental uncertainty and environmental scanning activities of Nigerian manufacturing executives: A comparative analysis”, Strategic Management Journal, Vol. 14, p. 287-299.

SCARFE R.T., SHORTLAND R.J., (1995), “Data mining applications in BT”, IEE Colloquium (Digest).

SEARLE J.R. (1990). “Is the brain’s mind a computer program ?”, Scientific American Vol. 262, n°1, p. 26-31.

SEDDON P.B., (1997), “A respecification and extension of the Delone and McLean model of IS success”, Information Systems Research, Vol. 8, September, p. 240-253.

SEGURAN M., (2000), « Un système multi-agents basé sur CORBA pour la coopération de systèmes d’information hétérogènes », RJCIA-2000, 10 au 13 septembre 2000 à Lyon.

SENATOR T.E., GOLDBERG H.G., WOOTON J., et al., (1995), “the financial crimes enforcement network AI system (FAIS) identifying potential money laundering from reports of large cash transactions”, AI Magazine, p. 21-39.

SHAKER S. M., GEMBICKI M. P., (1999). WarRoom Guide to Competitive Intelligence. McGraw-Hill.

Page 286: thèse dauphine - nombreux documents chercheurs +

Bibliographie

283

SHAW M. J., GENTRY J.A., (1990), “Inductive learning for risk classifications, IEEE Expert, p. 47-53.

SHAW M., GARLAN D., (1995), “Formulations and formalisms in software architecture”, Springer-Verlag, LNCS, n°1000.

SHEARIN S., LIEBERMAN H., (2001). “Intelligent Profiling by Example”. MIT Media Lab.

SHIM J.P. et al. (2002), “Past, present, and future of decision suppor technology”, Decision Support Systems, Vol. 33, n° 2, p. 111-126.

SHNEIDERMAN B., (2000), “Universal Usability,” Communications of the ACM, Vol. 43, n°5, p. 84-91.

SHORTLAND R., SCARFE R., (1995), “Digging for gold”, IEE Review, Vol.41, n°5, p.213-217.

SIMON H. A. (1965). The shame of automation. Harper and Row, New York.

SIMON H. A. (1977). Le nouveau management, la decision par les ordinateurs. Editions Economica, traduit de: The new science of management decision, Prentice-Hall, Inc, Englewwood Cliffs, New Jersey, (Troisième édition révisée).

SIMON, H.A. (1980). Le nouveau management, la décision par les ordinateurs. Ed. Economica, traduit de the new science of management decision, Prentice-Hall, Inc, Englewwood Cliffs, New Jersey, 1977 (troisième edition révisée).

SINGH N., (2001), “Economic action on the Internet: a network organization approach”, Journal of E-Business, Vol.1, n°1, June.

SPANGLER W., MAY J.H., VARGAS L.G., (1999), “Choosing data mining methods for multiple classification: representational and performance measurement implications for decision support”, Journal of Management Information Systems, Vol. 16, n°1, p. 47-62.

SPIEGLER I., (2000), “Knowledge Management: a new idea or a recycled concept”, Communications of the AIS, Vol. 14, n°3. Available online at: http://cais.isworld.org/articles/3-14/article.htm.

SPIEGLER I., (2003), “Technology and knowledge: bridging a “generating” gap”, Information and Management, Vol. 40, p.533-539.

SPIEKERMANN S., PARASCHIV C., (2002), “Motivating Human Agent Interactions: Transferring Insights from behavioral Marketing from Interface Design”, Electronic Commerce Research, n°2, p. 255-285.

STANTON W. J., ETZEL M. J., WALKER B. J., (1994). Fundaments of Marketing. 10th Edition, McGraw-Hill, New York.

STOTT M. D. (1993). “You Can't Trust What You Read: Making Sense of the Business Press”. In J. E. Prescott & P. T. Gibbons (Eds.), Global Perspectives on Competitive

Page 287: thèse dauphine - nombreux documents chercheurs +

Bibliographie

284

Intelligence (p. 309-321). Alexandria: Society of Competitive Intelligence Professionals (SCIP).

STRAUB D.W., KARAHANNA E., CHERVANY N.L., (1999), “Information technology adoption across time: a cross-sectional comparison of pre-adoption and post-adoption beliefs”, MIS Quarterly, Vol. 23, n°2, p. 183-213.

STRONG D., (2002), “Human Computer Interaction Research in the MIS Discipline,” Panel Presentation at MCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

SUBRAMANIAN R., ISHAK S. T., (1998), “Computer analysis practices of US companies: an empirical investigation”, Management International Review, Vol.38, n°17, p. 7-23.

SUBRAMANINAN G.H., (1994), “A replication of perceived usefulness and perceived ease of use measurement”, Decision Sciences, Vol. 25, n°5/6, p. 863-874.

SUNG T.K., CHANG N., LEE G., (1999), “Dynamics of modelling in data mining: interpretative approach to bankruptcy prediction”, Journal of Management Information Systems, Vol. 16, n°1, p. 63-85.

SUTCLIFFE K. M., (1997), “Organizational environments and organizational information processing”, in F.Jablin and L.Putnam, Handbook of Organizational Journal, 2nd ed. Sage, Beverly Hills, CA.

SUTCLIFFE K. M., ZAHEER A., (1998), “Uncertainty in the transaction environment”, Strategic Management Journal, Vol.19, p.1-23.

SZAJNA B., (1996), “Empirical evaluations of the revised technology acceptance model”, Management Science, Vol. 42, n°1, p. 85-92.

TAYLOR S., TODD P., (1995), “Assessing IT usage: the role of prior experience”, MIS Quarterly, December, p. 561-570.

TAYLOR S., TODD P., (1995), “Understanding information technology usage: a test of computing models”, Information Systems Research, Vol. 6, n°2, p. 144-176.

TE’ENI D., (2001), “A Cognitive-Affective Model of Organizational Communication for Designing IT,” MIS Quarterly, Vol. 25, n°2, p. 251-312.

TEECE D. J., (1986), “Firm boundaries, technological innovation, and strategic management”, In L. G. Thomas (Eds), The Economics of Strategic Planning. Lexington, MA.

TEECE D.J., PISANO G., (1997), “Dynamic capabilities and strategic management”, Strategic Management Journal, Vol. 18, p. 509-533.

TEO T.S.H., CHOO W.Y., (2001), “Assessing the impact of using the Internet for competitive intelligence”, Information and Management, Vol.39, p. 67-83.

THOMESEN E. (1997). OLAP Solutions : Building Multidimensional Information Systems, Wiley, New York.

Page 288: thèse dauphine - nombreux documents chercheurs +

Bibliographie

285

THOMPSON R. L., HIGGINS C.A., HOWELL J.M., (1994), “Influence of experience on personal computer utilization: testing a conceptual model”, Journal of Management Information Systems, Vol. 11, n°1, p. 167-187.

THOMSEN E., (2003), “BI’s Promised Land”, Intelligent Enterprise, Vol.6 n°4, p. 21-25.

TIWANA A., (2001), Gestion des connaissances, Applications CRM et e-business, Campus Press.

TRACTINSKY N., SHOVAL-KATZ A., IKAR D., (2000), “What is Beautiful is Usable,” Interacting with Computers, Vol. 3, n°2, p. 127-145

TRAUTH E.M., JESSUP L.M., (2000), “Understanding computer-mediated discussions: positivist and interpretive analyses of group support system use”, MIS Quarterly, Vol. 24, p. 43-79.

TREVINO L. K., WEBSTER J., (1992), “Flow in Computer-Mediated Communication,” Communication Research, Vol. 19, n°5, p. 539-573

TSAIH R., HSU Y., LAI C.C., (1998), “ Forecasting SP 500 stock index futures with a hybrid AI system”, Decision Support Systems, Vol.23, p. 161-174.

TURBAN E., ARONSON J. (1998). Decision Support Systems and Intelligent Systems. Prentice- Hall, Upper Saddle River, WJ.

TUSHMAN M. L., NADLER D. A., (1978), “Information processing as an integrating concept in organizational design”, Academy of Management Review, n°3, p. 613-624.

VENKATESH V., MORRIS M.G., (2000), “Why do not men ever stop to ask for directions ? Gender, social influence, and their role in technology acceptance and usage behavior”, MIS Quarterly, Vol. 24, n°1, p. 115-139.

VENKATESH V. DAVIS F.D., (1996), “A model of the antecedents of perceived ease of use : development and test”, Decision Sciences, Vol. 27, n°3, p. 451-570.

VENKATESH V., (1999), “Creation of favourable user perceptions: Exploring the role of intrinsic motivation”, MIS Quarterly, Vol. 23, n°2, p. 239-260.

VENKATESH V., (2000), “Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model,” Information Systems Research, Vol.11, n°4, p. 342-365.

VENKATESH V., BROWN S.A., (2001), “A Longitudinal Investigation of Personal Computers in Homes: Adoption Determinants and Emerging Challenges,” MIS Quarterly, Vol. 25, n°1, p. 71-102.

VENKATESH V., DAVIS F.D., (2000), “A theoretical extension of the technology acceptance model: four longitudinal field studies”, Management Science, Vol. 46,n°2, p.186-204.

Page 289: thèse dauphine - nombreux documents chercheurs +

Bibliographie

286

VESSEY I., (1986), “Expertise in Debugging Computer Programs: An Analysis of the Content of Verbal Protocols,” IEEE Transactions on Systems, Man, and Cybernetics, Vol. 16 n°5, p. 621-637.

VESSEY I., (1991), “Cognitive Fit: A Theory-Based Analysis of the Graphs Versus Tables Literature,” Decision Sciences, Vol. 22, n°2, p. 219-240.

VESSEY I., GALLETTA D., (1991), “Cognitive Fit: An Empirical Study of Information Acquisition,”Information Systems Research, Vol. 2, n°1, p. 63-84.

VIDAL P., LACROUX F., (2000), « L’évolution des systèmes d’aide à la décision : du choix en situation structurée à l’intermédiation en situation complexe », Systèmes d’Information et Management, n°3, Septembre, p. 51-70.

VIJAYASARATHY L. R., ROBEY D., (1997), “The effect of EDI on market channel relationships in retailing, Information and Management, Vol.33, p.73-86.

VIVEROS M.S., ELO-DEAN S., WRIGHT M.A., et al., (1997), “Visitors’ behavior: mining web servers”, in Proceedings of First International Conference on the Practical Applications of Knowledge Discovery and Data Mining, London, UK, p. 257-269.

VOLLTRATH I., WILKE W., BERGMANN R., (1998), “Case-Based Reasoning support for online catalog sales”, IEEE Internet Computing, p. 47-54.

WALLS J.G., WIDMEYER G.R., EL SAWY O.A., (1992), “Building an information system design theory for vigilant EIS”, Information System Research, Vol. 3, n°1, March, p.36-59.

WALSHAM G. (1995), “Interpretive case studies in IS research: nature and method”, European Journal of Information Systems, Vol. 4, p.74-81.

WALSHAM G., (1995), “The emergence of interpretivism in IS research”, Information Systems Research, Vol. 6, p.376-394.

WATSON H., GRAY P., (1997), Decision Support in the data Warehouse, Prentice-Hall, Englewood-Cliffs, NJ.

WEBSTER J., MARTOCCHIO J.J., (1992), “Microcomputer Playfulness: Development of a Measure with Workplace Implications,” MIS Quarterly, Vol.16, n° 2, p. 201-226.

WEBSTER J., TREVINO L., RYAN L., (1993), “The Dimensionality and Correlates of Flow in Human-Computer Interaction,” Computers in Human Behavior, Vol. 9, n°2/3, p. 411-426

WEBSTER K., PAUL K., (1996), “Beyond surfing: tools and techniques for searching the web”, Information Technology, January.

WEICK, K.E. (1995). Sensmaking in organisations. Sage, New York.

WERTS C.E., LINN R.L., JORESKOG K.G., (1974), “Intraclass Reliability Estimates: Testing Structural Assumptions”, Educational and Psychological Measurement, Vol. 34, p.25-33.

Page 290: thèse dauphine - nombreux documents chercheurs +

Bibliographie

287

WETHERBE J. C., (1996), The World on time: The 11 management principles that made FedEx an overnight sensation. CA : Knowledge Exchange.

WHITEHEAD C. (2002), “Five Building Blocks for Organizational Renewal”, Competitive Intelligence Magazine, Vol. 5, n°4, p. 25-27.

WIERENGA B., VAN BRUGGEN G.H., (2000), “Marketing Management Support Systems: Principles, Tools and Implementation”, International Series in Quantitative Marketing.

WILLIAMSON O. E., MASTEN S. E., (1995). Transactions cost economics. Vol.1, Edward Elgar Publishing Limited.

WILSON R.L., SHARDA R., (1994), “Bankruptcy prediction using neural networks”, Decision Support Systems, n°11, p. 545-557.

WOOLDRIDGE M., JENNINGS N.R., (1995), “Intelligent Agents: Theory and Practice”, The Knowledge Engineering Review, Vol. 10, n°2.

WOOLDRIDGE M.J., (1999), “Intelligent Agents”, in G.Weiss (dir), Multi-agent systems: a modern approach to Distributed Artificial Intelligence, MIT Press.

WRIGHT D., (1993). Broadband: business services, technologies, and strategic impact. Artech House, Boston.

WU K.L., YU P.S., BALLMAN A., (1998), “Speed Tracer: a web usage mining and analysis tool”, IBM Systems Journal, Vol. 37, n°1, p. 89-105.

YASAI-ARDEKANI M., (1986), “Structural adaptation to environments”, Academy of Management Review, Vol. 11, p. 9-21.

YASAI-ARDEKANI M., NYSTROM P.C., (1996), “Designs for environmental scanning systems: tests of contingency theory”. Management Science, Vol. 42, n°2, p. 187-204.

ZANASI A., (1998), “ Competitive Intelligence through Data Mining Public Sources”, Competitive Intelligence Review, Vol. 9, n°1, p. 44-54.

ZANASI A., (2000), “Web Mining through the online Analyst”, Presented at Data Mining 2000 Conference, Cambridge, July 5-2000, published in Data Mining II, ISBN: 1-85312-821-X, p. 3-14, WIT Press.

ZHANG P. (2003), “The role of HCI in the MIS Curriculum”, Proceedings of the Americas Conference on Information Systems, August, Tampa, FL. p. 2080-2082.

ZHANG P., (1998), “Image Construction Method for Visualizing Managerial Data,” Decision Support Systems, Vol. 23, n°4, p. 371-387

ZHANG P., (2002), “The Role of HCI Research in the MIS Discipline,” Proceedings of the Americas Conference on Information Systems, August, Dallas, TX. p. 2452-2453.

Page 291: thèse dauphine - nombreux documents chercheurs +

Bibliographie

288

ZHANG P., BENBASAT I., CAREY J., DAVIS F., GALLETTA D., STRONG D., (2002), “ AMCIS 2002 panels and workshops I: Human-Computer Interaction Research In The MIS Discipline”, Communications of the Association for Information Systems, Vol. 9, p. 334-355.

ZHANG P., BENBASAT I., CAREY J.M., DAVIS F., GALLETTA D., STRONG D., (2002), “Human Computer Interaction Research in the MIS Discipline,” Communications of the association of Information Systems, Vol. 9, n°20, p. 334-354.

ZHANG P., CAREY J., TE’ENI D., TREMAINE M., (2005), “Integrating Human- Computer Interaction Development into the systems development life cycle: A methodology”, Communications of the Association for Information Systems, Vol. 15, p. 512-543.

ZHANG P., LI N., (2004), “An assessment of Human-Computer Interaction Research in Management Information Systems: Topics and Methods”, Computers in Human Behavior, Vol.20, N°2, p. 125-147.

ZIGURS I., BUCKLAND B., (1998), “A Theory of Task/Technology Fit and Group Support Systems Effectiveness,” MIS Quarterly, Vol. 22, n°3, p. 313-334.

Page 292: thèse dauphine - nombreux documents chercheurs +

Table des matières

289

Table des matières

REMERCIEMENTS................................................................................................................ 1

SOMMAIRE ............................................................................................................................. 2

INTRODUCTION GENERALE ............................................................................................ 3

1. FORMULATION DE LA PROBLEMATIQUE DE RECHERCHE ............................................. 4 2. STRUCTURE GENERALE DE L’APPROCHE DE CETTE RECHERCHE ................................ 8

PARTIE 1................................................................................................................................ 11

PRESENTATION DU CADRE THEORIQUE DE LA RECHERCHE........................... 11

CHAPITRE 1.......................................................................................................................... 12

PROCESSUS DE VEILLE STRATEGIQUE ET SYSTEMES D’INFORMATION : EVOLUTION DES CONCEPTS THEORIQUES.............................................................. 12

INTRODUCTION .................................................................................................................... 13 SECTION 1 : DEFINITION ET EVOLUTION DES CONCEPTS .................................................. 13

1. FOISONNEMENT TERMINOLOGIQUE ............................................................................ 13 1.1. Multiplicité des notions ......................................................................................... 13 1.2. Competitive Intelligence et Business Intelligence ................................................ 14 1.3. Veille Stratégique .................................................................................................. 19

2. CONCEPT DE TRAITEMENT DE L’INFORMATION ......................................................... 23 3. CONCEPT DES SYSTEMES D’INFORMATION ................................................................. 27

SECTION 2 : SYSTEMES DE TRAITEMENT DE L’INFORMATION ET PROCESSUS DE VEILLE STRATEGIQUE....................................................................................................................... 32

1. TIC COMME OUTILS DE LA VEILLE STRATEGIQUE ..................................................... 32 1.1. Premier type d’agents............................................................................................ 33 1.2. Deuxième type d’agents ........................................................................................ 33 1.3. Caractéristiques des agents intelligents................................................................. 34

2. TIC, INFORMATION ET PROCESSUS DE LA PRISE DE DECISION................................... 36 2.1. Modèle de Simon : Cadre de référence ................................................................. 37 2.2. Information et prise de décision ............................................................................ 39 2.3. TIC et information................................................................................................. 41

CONCLUSION ........................................................................................................................ 47

CHAPITRE 2.......................................................................................................................... 49

TECHNOLOGIE DES AGENTS INTELLIGENTS : CARACTERISTIQUES ET APPLICATIONS.................................................................................................................... 49

INTRODUCTION .................................................................................................................... 50 SECTION 1 : UTILISATION DE LA TECHNOLOGIE AGENTS INTELLIGENTS......................... 50

1. DEFINITION DES AGENTS INTELLIGENTS..................................................................... 50 2. CLASSIFICATIONS ET CARACTERISTIQUES DES AGENTS INTELLIGENTS .................... 53

2.1. Classification et caractéristiques des architectures d’agents intelligents .............. 53 2.2. Classification et caractéristiques des agents intelligents dans le commerce et l’industrie ..................................................................................................................... 58 2.3. Classification et caractéristiques des agents intelligents dans le Web .................. 59

2.3.1. Caractéristiques de ces trois agents ................................................................ 60 2.3.2. Six caractéristiques d’un agent sophistiqué.................................................... 62

3. COMMERCE ELECTRONIQUE : UN CAS D’APPLICATION DES AGENTS MEDIATEURS... 68

Page 293: thèse dauphine - nombreux documents chercheurs +

Table des matières

290

SECTION 2 : PROPOSITION DU PREMIER MODELE THEORIQUE ET PHASE D’EXPLORATION DU TERRAIN .......................................................................................................................... 72

1. PROPOSITION DU PREMIER MODELE THEORIQUE ....................................................... 72 2. SOURCE ET ANALYSE DES DONNEES DE LA PHASE D’EXPLORATION........................... 80 3. RESULTATS DE LA PREMIERE PHASE ........................................................................... 82

3.1. Rôle de la fonction de la veille stratégique dans le cadre de cette étude .............. 82 3.2. Présentation des agents intelligents....................................................................... 84

3.2.1. Définition des agents intelligents ................................................................... 84 3.2.2. Place des agents intelligents dans le processus de la veille stratégique ......... 85 3.2.3. Positionnement du chercheur par rapport aux autres domaines ..................... 85

CONCLUSION ........................................................................................................................ 88

CHAPITRE 3.......................................................................................................................... 89

DIMENSIONS THEORIQUES DE L’INTERACTION HOMME-MACHINE DANS LE MANAGEMENT DES SYSTEMES D’INFORMATION.................................................. 89

INTRODUCTION .................................................................................................................... 90 SECTION 1 : ROLE DE L’INTERACTION HOMME - MACHINE ............................................. 90

1. DEFINITION DE L’INTERACTION HOMME-MACHINE ................................................. 91 2. CARACTERISTIQUES DE LA RECHERCHE EN MSI/IHM.............................................. 93

2.1. Cible de la recherche, domaine et Champ d’application....................................... 93 2.2. Disciplines rattachées et support théorique ........................................................... 97 2.3. Méthodologies de recherche.................................................................................. 98

3. REALITE DE L’IHM DANS LE DEVELOPPEMENT DES SYSTEMES .............................. 101 4. PERSPECTIVES DE LA RECHERCHE EN MSI/IHM..................................................... 104

4.1. Construction des relations et Gestion des construits ...................................... 104 4.2. Modélisation de la tâche et l’adéquation organisationnelle ........................... 105 4.3. Acceptation de l’utilisateur ............................................................................ 106 4.4. Amélioration des mesures dans l’IHM........................................................... 107 4.5. Accentuation sur l’expérience holistique de l’interaction des humains avec les technologies................................................................................................................ 107 4.6. Accentuation d’un grand champ d’utilisateurs............................................... 108 4.7. Nouvelle taxinomie du MSI/IHM .................................................................. 109

SECTION 2 : PROCESSUS D’EVALUATION DES SYSTEMES D’INFORMATION : INSTRUMENTS DE MESURE ......................................................................................................................... 112

1. MODELE DE GOODHUE ET THOMPSON (1995) : ADEQUATION TECHNOLOGIE-TACHE........................................................................................................................................ 114

1.1. Problématique...................................................................................................... 114 1.2. Méthode............................................................................................................... 114 1.3. Résultats .............................................................................................................. 114 1.4. Opérationnalisation du modèle théorique ........................................................... 116

2. APPROCHE EMPIRIQUE DE FRANZ ET ROBEY (1986)................................................ 118 2.1. Problématique...................................................................................................... 118 2.2. Méthode............................................................................................................... 118

3. MODELE DE L’ACCEPTATION DES TSI DE DAVIS (1989).......................................... 120 3.1. Problématique...................................................................................................... 120 3.2. Méthode............................................................................................................... 120

4. EVALUATION DE LA VALIDITE DES MODELES DE SUCCES DES SI : RAI ET AL. (2002)........................................................................................................................................ 124

4.1. Modèle de DeLone & McLean (1992) ................................................................ 125 4.2. Modèle de Seddon (1997) ................................................................................... 128

Page 294: thèse dauphine - nombreux documents chercheurs +

Table des matières

291

CONCLUSION ...................................................................................................................... 130

SYNTHESE DE LA PARTIE 1. STRUCTURE GLOBALE DU DEUXIEME MODELE THEORIQUE ....................................................................................................................... 131

PARTIE 2. METHODOLOGIE DE RECHERCHE ET MISE EN APPLICATION DU MODELE THEORIQUE .................................................................................................... 137

CHAPITRE 4........................................................................................................................ 138

POSITIONNEMENT EPISTEMOLOGIQUE ET METHODOLOGIE DE LA RECHERCHE ...................................................................................................................... 138

INTRODUCTION .................................................................................................................. 139 SECTION 1 : ARCHITECTURE DE LA RECHERCHE ............................................................. 139

1. POSITIONNEMENT EPISTEMOLOGIQUE ..................................................................... 139 1.1. Classifications paradigmatiques .......................................................................... 139 1.2. Classifications méthodologiques......................................................................... 141

2. PROCEDURE DE LA RECHERCHE................................................................................ 143 2.1. Représentations paradigmatiques ........................................................................ 143

2.1.1. Positivisme ................................................................................................... 143 2.1.2. Interprétatif................................................................................................... 144

2.2. Représentations méthodologiques...................................................................... 144 2.2.1. Empirique versus non-empirique ................................................................. 144 2.2.2. Quantitatif versus qualitatif .......................................................................... 145 2.2.3. Inter-sectoriel versus longitudinal ................................................................ 145

SECTION 2 : CONSTRUCTION DE L’INSTRUMENT DE MESURE .......................................... 148 1. OPERATIONNALISATION DES VARIABLES.................................................................. 148 2. DEROULEMENT DE L’ENQUETE ................................................................................. 152

CONCLUSION ...................................................................................................................... 154

CHAPITRE 5........................................................................................................................ 155

ETUDE DES ANALYSES DESCRIPTIVE ET EXPLORATOIRE............................... 155

INTRODUCTION .................................................................................................................. 156 SECTION 1 : ANALYSE DESCRIPTIVE DES DONNEES .......................................................... 156 SECTION 2 : ANALYSE EXPLORATOIRE DES DONNEES ..................................................... 159

1. ANALYSE EN COMPOSANTES PRINCIPALES................................................................ 159 1.1. ACP avec pour variables actives du premier modèle « Adéquation technologie-Tâche » ....................................................................................................................... 159 1.2. ACP avec pour variables actives du deuxième modèle de l’« Acceptation de la technologie des AI »................................................................................................... 161

2. CLASSIFICATION ........................................................................................................ 163 2.1. Groupe de variables actives se référant au modèle théorique de l’Adéquation Technologie-Tâche..................................................................................................... 163

2.1.1. Répartition des utilisateurs dans chaque classe............................................ 163 2.1.2. Interprétation des classes.............................................................................. 164 2.1.3. Différenciation des classes ........................................................................... 176

2.2. Groupe de variables actives se référant au modèle théorique de l’Acceptation de la Technologie des AI .................................................................................................... 180

2.2.1. Répartition des utilisateurs dans chaque classe :.......................................... 180 2.2.2. Interprétation des classes.............................................................................. 181 2.2.3. Différenciation des classes ........................................................................... 188

2.3. Croisement des deux partitions ........................................................................... 191

Page 295: thèse dauphine - nombreux documents chercheurs +

Table des matières

292

3. ANALYSE DE VARIANCE ............................................................................................. 192 CONCLUSION ...................................................................................................................... 195

CHAPITRE 6........................................................................................................................ 196

ANALYSE CONFIRMATOIRE : ...................................................................................... 196

VALIDATION DES HYPOTHESES DE RECHERCHE................................................ 196

INTRODUCTION .................................................................................................................. 197 SECTION 1. VALIDATION DU MODELE RETENU (PLS) ...................................................... 197

1. INDICATEURS, FIABILITE ET VALIDITE .................................................................... 197 1.1. Fiabilité des items................................................................................................ 198 1.2. Validité convergente ........................................................................................... 199 1.3. Validité discriminante ......................................................................................... 201

2. RELATIONS ENTRE LES CONSTRUITS – INDICATEURS DE MESURE .......................... 203 3. RESULTATS ET DISCUSSION....................................................................................... 203

SECTION 2. MODELES D’EQUATIONS STRUCTURELLES : ANALYSE DES EFFETS LINEAIRES............................................................................................................................................ 214

1. PREMIER MODELE DE L’ADEQUATION TECHNOLOGIE-TACHE : DEMARCHE METHODOLOGIQUE ........................................................................................................ 214

1.1. Elaboration et spécification................................................................................. 214 1.2. Estimation du modèle théorique.......................................................................... 217 1.3. Identification du modèle théorique ..................................................................... 217 1.4. Interprétation des résultats ................................................................................. 218

1.4.1. La qualité de l’ajustement du premier modèle aux données ........................ 219 1.4.2. Résolution du modèle d’équations structurelles........................................... 223

2. DEUXIEME MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE : DEMARCHE METHODOLOGIQUE ........................................................................................................ 225

2.1. Elaboration, Spécification, estimation et identification du modèle .................... 225 2.2. Interprétation des résultats .................................................................................. 228

2.2.1. La qualité de l’ajustement du deuxième modèle aux données ..................... 228 2.2.2. Résolution du modèle d’équations structurelles........................................... 233

SECTION 3. COMPARAISON DE NOS RESULTATS AVEC LES TRAVAUX EFFECTUES........... 236 1. PRESENTATION DES TRAVAUX ANTERIEURS ............................................................. 236 2. RECAPITULATION DE NOS RESULTATS ET LEUR COMPARAISON AUX TRAVAUX ANTERIEURS ................................................................................................................... 242

2. 1. Récaputation des résultats de cette étude ........................................................... 242 2. 2. Comparaison de nos résultats aux travaux antérieurs ........................................ 246

CONCLUSION ...................................................................................................................... 248

SYNTHESE DE LA PARTIE 2. ......................................................................................... 249

RESUME DES RESULTATS DU PROCESSUS D’ANALYSE DES DONNEES ........ 249

1. RESULTATS DE LA PREMIERE PHASE DESCRIPTIVE DES DONNEES ........................... 250 2. RESULTATS DE LA DEUXIEME PHASE EXPLORATOIRE .............................................. 250 3. RESULTATS DE LA PHASE CONFIRMATOIRE .............................................................. 251

CONCLUSION GENERALE ............................................................................................. 253

1. RAPPEL DES QUESTIONS ET DE LA METHODOLOGIE DE LA RECHERCHE ................. 254 1.1. Questions de recherche........................................................................................ 254 1.2. Méthodologie suivie ............................................................................................ 254

2. PRINCIPAUX RESULTATS, LIMITES ET PROLONGEMENTS POSSIBLES ....................... 257

Page 296: thèse dauphine - nombreux documents chercheurs +

Table des matières

293

2.1. Liens entre veille stratégique et Agents Intelligents ...................................... 257 2.2. Liens entre Agents Intelligents et autres domaines de recherche................... 257 2.3. Liens entre l’agent humain et l’AI ................................................................. 257 2.4. De nombreux domaines d’application............................................................ 258 2.5. Une large typologie d’utilisateurs .................................................................. 258 2.6. Des instruments de mesure fiables et des variables significatives ................. 258

3. LES IMPLICATIONS CONCEPTUELLES ET MANAGERIALES ........................................ 259 3.1. Les contributions conceptuelles ..................................................................... 259 3.2. Les contributions managériales ...................................................................... 261

BIBLIOGRAPHIE ............................................................................................................... 263

TABLE DES MATIERES ................................................................................................... 289

LISTE DES FIGURES......................................................................................................... 294

LISTE DES TABLEAUX .................................................................................................... 295

Page 297: thèse dauphine - nombreux documents chercheurs +

Liste des figures

294

Liste des figures FIGURE 1. STRUCTURE GENERALE DE L’APPROCHE DE NOTRE RECHERCHE............................................................ 10 FIGURE 2. IMPACT DE L’UTILISATION DES AGENTS INTELLIGENTS ....................................................................... 14 FIGURE 3. PROCESSUS DE L’INTELLIGENCE COMPETITIVE...................................................................................... 16 FIGURE 4. PROCESSUS DE LA VEILLE STRATEGIQUE (LESCA, 1994) ....................................................................... 20 FIGURE 5. LE MODELE THEORIQUE DE RHEE (2001) .............................................................................................. 25 FIGURE 6. TRANSFORMATION DES DONNEES EN CONNAISSANCES (TURBAN & ARONSON ) ................................... 39 FIGURE 7. DONNEE-INFORMATION-CONNAISSANCE (TURBAN & ARONSON) ........................................................ 40 FIGURE 8. SYSTEMES D’INFORMATION ET NIVEAUX ORGANISATIONNELS (TURBAN & ARONSON) ........................ 45 FIGURE 9. COMPATIBILITE DU DEVELOPPEMENT DES SYSTEMES D’INFORMATION AVEC LA TRANSFORMATION DE

DONNEE (TURBAN ET ARONSON)................................................................................................................. 46 FIGURE 10. LES SIX CARACTERISTIQUES D’UN AGENT (KAUFFMAN, ET AL. 2000)................................................. 62 FIGURE 11. LES SIX ETAPES DU PROCESSUS D’ACHAT EN LIGNE (GUTTMAN ET AL., 1998) .................................... 69 FIGURE 12. MODELE D’UN AGENT (CAGLAYAN ET HARRISON, 1997) ................................................................... 72 FIGURE 13. PROPOSITION DU PREMIER MODELE THEORIQUE.................................................................................. 76 FIGURE 14. DOMAINES D’INFLUENCE A L’ORIGINE DES AGENTS INTELLIGENTS (CAGLAYAN ET HARRISON, 1997)86 FIGURE 15. LES NIVEAUX D’ANALYSE DANS L’IHM. (PREECE ET AL., 1994) ........................................................ 94 FIGURE 16. LES STRATEGIES DE RECHERCHE (SOURCE : MCGRATH, 1981)........................................................... 99 FIGURE 17. CADRE CONCEPTUEL DE L’IHM (ZANGH ET LI, 2004) ...................................................................... 111 FIGURE 18. TROIS MODELES SUR LE LIEN ENTRE LA TECHNOLOGIE ET LA PERFORMANCE (GOODHUE ET THOMPSON,

1995).......................................................................................................................................................... 116 FIGURE 19. LE MODELE THEORIQUE DE FRANZ ET ROBEY (1986)........................................................................ 118 FIGURE 20. LE MODELE OPERATIONNEL DE DAVIS (1989) ................................................................................... 121 FIGURE 21. LE MODELE TAM DE STRAUB, 1999 (REPRIS DE DAVIS, 1989)........................................................ 122 FIGURE 22. LE MODELE THEORIQUE DE DELONE ET MCLEAN, 1992. .................................................................. 125 FIGURE 23. LA MODELE THEORIQUE DE SEDDON (1997)...................................................................................... 128 FIGURE 24. PROPOSITION DU DEUXIEME MODELE THEORIQUE ............................................................................. 132 FIGURE 25.VALEURS-TESTS DE LA CLASSE 1/ 5 ................................................................................................. 164 FIGURE 26.VALEURS-TESTS DE LA CLASSE 2/ 5 ................................................................................................. 167 FIGURE 27.VALEURS-TESTS DE LA CLASSE 3/ 5 ................................................................................................. 171 FIGURE 28. VALEURS-TESTS DE LA CLASSE 4/ 5 ................................................................................................ 173 FIGURE 29. VALEURS-TESTS DE LA CLASSE 5/ 5 ................................................................................................ 175 FIGURE 30. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM1-ITEM10)........................................ 177 FIGURE 31. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM11-ITEM18)...................................... 178 FIGURE 32. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM19-ITEM29)...................................... 179 FIGURE 33. VALEURS-TESTS DE LA CLASSE 1/ 4 ................................................................................................ 181 FIGURE 34. VALEURS-TESTS DE LA CLASSE 2/ 4 ................................................................................................ 184 FIGURE 35. VALEURS-TESTS DE LA CLASSE 3/ 4 ................................................................................................ 186 FIGURE 36. VALEURS-TESTS DE LA CLASSE 4/ 4 ................................................................................................ 187 FIGURE 37. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM30-ITEM41) .................................. 188 FIGURE 38. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM42-ITEM50) .................................. 189 FIGURE 39. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM51-ITEM59) .................................. 190 FIGURE 40. REPARTITION DES REPONDANTS SUITE A LA CLASSIFICATION DES DEUX ANALYSES.......................... 191 FIGURE 41. PRESENTATION DU MODELE DE L’ADEQUATION TECHNOLOGIE TACHE CONÇUE PAR AMOS 4. ....... 216 FIGURE 42. PRESENTATION DU MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE CONÇUE PAR AMOS 4. ....... 227

Page 298: thèse dauphine - nombreux documents chercheurs +

Liste des tableaux

295

Liste des tableaux TABLEAU 1. LES TECHNIQUES D’ANALYSE DES COMPETITEURS (EDNA O.F. REID, 2004) ..................................... 18 TABLEAU 2. EVOLUTION DE LA NOTION DE LA VEILLE STRATEGIQUE. (ROUIBAH, 1998) ...................................... 21 TABLEAU 3. MANAGEMENT STRATEGIQUE, VEILLE STRATEGIQUE ET SYSTEME D’INFORMATION (LESCA N., 2003).............................................................................................................................................................................. 22 TABLEAU 4. EVOLUTION DES SYSTEMES D’INFORMATION (VIDAL ET LACROUX, 2000) ....................................... 29 TABLEAU 5. EVOLUTION DE LA DEFINITION DES AGENTS INTELLIGENTS (DAVID ET MONOD, 1997) ..................... 36 TABLEAU 6. CONSTRUCTION DES THEORIES DANS LES ARTICLES DE MANAGEMENT DES SYSTEMES D’INFORMATION (LARSEN ET LEVINE, 2005).................................................................................................................................... 37 TABLEAU 7. LES CARACTERISTIQUES DES AGENTS INTERNET (KAUFFMAN, ET AL. 2000) ..................................... 60 TABLEAU 8. LA DIFFERENCE ENTRE LES AGENTS ROBOTS ET LES AGENTS INTERNET............................................. 62 TABLEAU 9. LA SOURCE ET L’ANALYSE DES DONNEES DE LA PHASE D’EXPLORATION ........................................... 82 TABLEAU 10. EVOLUTION DES RECHERCHES DANS L’INTERACTION HOMME-MACHINE ........................................ 92 TABLEAU 11. LA RECHERCHE IHM ET EVALUATION DES STRATEGIES (SOURCE: BAECKER ET AL. 1995) ........... 100 TABLEAU 12. LES THEMES DE L’IHM COUVERTS DANS LES MANUELS DE LA CONCEPTION ET L’ANALYSE DES SYSTEMES.(ZHANG ET AL., 2005) ........................................................................................................................ 102 TABLEAU 13. LES VARIABLES DE L’IHM (CAREY, 2002) .................................................................................... 107 TABLEAU 14. EXEMPLES D’INSTRUMENTS DE MESURE POUR L’EVALUATION DES SI. .......................................... 113 TABLEAU 15. RESULTATS DES TRAVAUX DE GOODHUE & THOMPSON (1995) .................................................... 115 TABLEAU 16. RAPPROCHEMENT ENTRE LES HYPOTHESES ET LES QUESTIONS DE RECHERCHE. ............................ 136 TABLEAU 17. LES JOURNAUX AUX ETATS UNIS VERSUS LES JOURNAUX EUROPEENS : POSITIVISME VERSUS INTERPRETATIF. (HIRSCHHEIM ET CHEN, 2004)................................................................................................... 146 TABLEAU 18. L’ARCHITECTURE DE CETTE ETUDE................................................................................................ 147 TABLEAU 19. REPARTITION DES PARTICIPANTS PAR RAPPORT AUX SECTEURS D’ACTIVITES DES ENTREPRISES.... 156 TABLEAU 20. REPARTITION DES PARTICIPANTS PAR RAPPORT AU DEPARTEMENT................................................ 157 TABLEAU 21. REPARTITION DES PARTICIPANTS PAR RAPPORT A LEUR FONCTION ................................................ 157 TABLEAU 22. REPARTITION DES PARTICIPANTS PAR RAPPORT AU SEXE ............................................................... 157 TABLEAU 23. REPARTITION DES PARTICIPANTS PAR RAPPORT A L’AGE ............................................................... 158 TABLEAU 24. ACP DES VARIABLES DU PREMIER MODELE « ADEQUATION TECHNOLOGIE-TACHE »................... 160 TABLEAU 25. ACP DES VARIABLES DU DEUXIEME MODELE « ACCEPTATION D’UNE TECHNOLOGIE» ................ 162 TABLEAU 26.CLASSIFICATION DES UTILISATEURS DES AI ................................................................................... 163 TABLEAU 27. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 1/5 ET LEURS DOMAINES D’APPLICATION .. 167 TABLEAU 28. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 2/5 ET LEURS DOMAINES D’APPLICATION .. 170 TABLEAU 29. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 3/5 ET LEURS DOMAINES D’APPLICATION .. 172 TABLEAU 30. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 4/5 ET LEURS DOMAINES D’APPLICATION .. 174 TABLEAU 31. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 5/5 ET LEURS DOMAINES D’APPLICATION .. 176 TABLEAU 32. CLASSIFICATION DES UTILISATEURS DES AI (2EME ANALYSE) ......................................................... 180 TABLEAU 33. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 1/4 ET LEURS DOMAINES D’APPLICATION .. 183 TABLEAU 34. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 2/4 ET LEURS DOMAINES D’APPLICATION .. 185 TABLEAU 35. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 3/4 ET LEURS DOMAINES D’APPLICATION .. 186 TABLEAU 36. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 4/4 ET LEURS DOMAINES D’APPLICATION .. 187 TABLEAU 37. DEGRE D’INFLUENCE DES CARACTERISTIQUES DE LA TACHE (TACHE) ET CELLES DE LA TECHNOLOGIE (DEPARTEMENT ET AI UTILISES) SUR LES VARIABLES DE L’ADEQUATION TECHNOLOGIE-TACHE.192 TABLEAU 38 . DEGRE D’INFLUENCE DE LA TACHE, DU DEPARTEMENT ET LES AI UTILISES SUR LE MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE. ............................................................................................................... 193 TABLEAU 39. DEGRE D’INFLUENCE DU SEXE, DE L’AGE ET DE LA LANGUE SUR LES VARIABLES DU MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE. ............................................................................................................... 194 TABLEAU 40. « LOADINGS » DANS L’ANLAYSE SOUS PLS ................................................................................. 199 TABLEAU 41. SIGNIFICATION & FIABILITE COMPOSITE (�) PAR CONSTRUIT ........................................................ 201 TABLEAU 42. MATRICE DES VALEURS DE L’“AVERAGE VARIANCE EXTRACTED ” ET CORRELATIONS ENTRE LES CONSTRUITS SOUS L’ANALYSE DU PLS ................................................................................................................ 202 TABLEAU 43. INFLUENCE DES CARACTERISTIQUES DE LA TACHE ET DE LA DE LA TECHNOLOGIE SUR L’ADEQUATION TECHNOLOGIE-TACHE (** = 0.005, * = 0.025) .................................................................................................... 204 TABLEAU 44. INFLUENCE DE L’ADEQUATION TECHNOLOGIE-TACHE (QLD, QS) ET DE L’INTERDEPENDANCE DES TACHES (TAC) SUR L’INTENSITE D’UTILISATION DES AI (IU).............................................................................. 207

Page 299: thèse dauphine - nombreux documents chercheurs +

Liste des tableaux

296

TABLEAU 45. INFLUENCE DE L’ADEQUATION TECHNOLOGIE-TACHE SUR L’ACCEPTATION DES AI (** = 0.005, * = 0.025) ............................................................................................................................................................ 210 TABLEAU 46. INFLUENCE DE L’ACCEPTATION DES AI SUR L’INTENSITE D’UTILISATION DES AI (** = 0.005, * = 0.025) ............................................................................................................................................................ 212 TABLEAU 47. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 217 TABLEAU 48. AJUSTEMENT ET POUVOIR EXPLICATIF DU 1ER MODELE ................................................................. 219 TABLEAU 49. REGRESSION WEIGHTS ................................................................................................................. 220 TABLEAU 50. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 221 TABLEAU 51. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS................................................................... 222 TABLEAU 52. COEFFICIENTS DE REGRESSION ...................................................................................................... 222 TABLEAU 53. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 223 TABLEAU 54. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 228 TABLEAU 55. AJUSTEMENT ET POUVOIR EXPLICATIF DU 2EME MODELE ................................................................ 229 TABLEAU 56. REGRESSION WEIGHTS .................................................................................................................. 230 TABLEAU 57. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 231 TABLEAU 58. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS .................................................................. 231 TABLEAU 59. COEFFICIENTS DE REGRESSION ...................................................................................................... 232 TABLEAU 60. PRESENTATION DES RELATIONS NON SIGNIFICATIFS DU 2EME MODELE ............................................ 232 TABLEAU 61. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 233 TABLEAU 62. DETAILS METHODOLOGIQUES (LEGRIS ET AL., 2003) .................................................................... 238 TABLEAU 63. TYPES DE RELATIONS TROUVEES (LEGRIS ET AL., 2003)................................................................ 240 TABLEAU 64. RESUME DES RESULTATS DES RECHERCHES ANTERIEURES (LEGRIS ET AL., 2003) ......................... 242 TABLEAU 65. RESULTATS DE LA METHODE D’EQUATIONS STRUCTURELLES EXAMINEE SUR LES DEUX MODELES 245 TABLEAU 66. COMPARAISON DES RESULTATS DE NOS TRAVAUX A CEUX DE DISHAW & STRONG (1999)............ 246 TABLEAU 67. RESULTATS DE LA PHASE CONFIRMATOIRE .................................................................................... 252 TABLEAU 68. LES CINQ COURANTS DE RECHERCHE EN SI, 1954-2003 (BANKER & KAUFFMAN, 2004) .............. 256

Page 300: thèse dauphine - nombreux documents chercheurs +

Veille Stratégique : l’évaluation de l’utilisation des Agents Intelligents

Résumé Cette recherche aborde la problématique de l’identification des Agents Intelligents (AI) et de l’évaluation de leur utilisation au sein des entreprises françaises en plaçant cette technologie dans le processus informationnel de veille stratégique. Le cadre conceptuel mobilisé s’intègre dans la recherche de l’Interaction Homme-Machine (IHM) et son lien avec la discipline du Management des Systèmes d’Information (MSI) pour mesurer la perception des utilisateurs de cette technologie. Pour répondre à cette problématique, le modèle élaboré et mis en application est inspiré de deux modèles d’évaluation des SI (TTF/TAM) de Goodhue et Thompson (1995) et Davis (1989). Cette application est basée sur une approche quantitative à travers un questionnaire administré à 155 utilisateurs d’Agents Intelligents appartenant à des entreprises de différents secteurs d’activités en France. Les résultats obtenus suggèrent qu’un « fit » adéquat entre technologie-tâche, produit une meilleure utilité perçue de cette technologie.

Mots Clés Veille stratégique, technologie des Agents Intelligents, Modèle de l’Adéquation Technologie-Tâche (TTF), Modèle de l’Acceptation d’une technologie (TAM).

Competitive Intelligence: Evaluation of Utilisation of Intelligent Agents

Abstract This research examines the question of identification and evaluation of utilisation of Intelligent Agents for French companies by positioning this technology in informational process of competitive intelligence. The conceptual framework is integrated into the research of Human-Computer Interaction (HCM) and its link with Management Information Systems (MIS) discipline in order to measure the user perception with this technology. To respond to this question, the model applied has been inspired from two models of evaluation of Information systems (TTF/TAM) of Goodhue & Thompson (1995) and Davis (1989). This application is based on quantitative approach through a survey administrated to 155 users of intelligent agents operating in companies of different sectors in France. The results suggest a good fit between technology-task and produce better-perceived usefulness of this technology.

Key Words Competitive Intelligence, Intelligent Agents Technology, Model of Technology-Task Fit (TTF), Technology Acceptance Model (TAM).

Université Paris Dauphine CREPA, Centre de Recherche en

Management & Organisation Dauphine Recherche en Management-

CNRS UMR n° 7088 Place du Maréchal de Lattre de Tassigny

75775 Paris Cedex 16 Tél. 01 44 05 43 54 / Fax : 01 44 05 40 84.