Td corrigé Thèse Amandine Pascal -Gestion - TEL (thèses pdf

Thèse Amandine Pascal -Gestion - TEL (thèses

Chapitre 1 : De la diffusion à l'appropriation des solutions TIC : une ..... Dans ce contexte, l'objectif de ce chapitre est de fournir une analyse approfondie des usages ...... d'analyser les faits et les machines dans le courant même de leur fabrication .... connaissances sur les coquilles de Saint-Brieuc qu'ils souhaitent corriger.




part of the document



es dans les thèses. Ces opinions doivent être considérées comme propres à leurs auteurs.
Remerciements

J’ai songé tout au long de mon travail de thèse au moment où, la rédaction aboutie, je rédigerai enfin mes remerciements. Je n’imaginais alors pas à quel point il serait difficile d’exprimer, avec la maladresse qui me caractérise et si peu de lignes, ma reconnaissance à toutes les personnes qui ont su me soutenir pendant ces longues années.
Je pense bien évidemment en premier lieu à mon directeur de thèse, Mme Catherine Thomas, qui a su me donner goût à la recherche et avec laquelle j’ai pu entretenir des débats qui ont nourri et stimulé ma réflexion. Merci également d’avoir été là jusqu’aux dernières heures de la rédaction.
Je tiens également à remercier les membres de l’équipe DCC et tout particulièrement Mr Alain Chiavelli et Mme Evelyne Rouby pour m’avoir encouragé et permis de finir ce travail dans les meilleures conditions.
Mes sincères remerciements vont également aux membres de mon jury, Messieurs Pierre-Jean Benghozi, Franck Tannery et Serge Proulx pour m’avoir fait l’honneur d’être rapporteurs.
Je souhaite également exprimer ma gratitude à tous les membres du laboratoire de recherche GREDEG pour le soutien affectif, intellectuel et matériel qu’ils m’ont délivré durant ces années de recherche. Merci également à Mme Yvonne Giordano, directrice de l’équipe Rodige, de m’avoir permis de présenter régulièrement mes travaux lors de conférences.
J’ai eu la chance d’avoir participé pendant cette recherche à un projet passionant et enrichissant et je souhaite vivement remercier l’ensemble des personnes avec qui j’ai partagé cette aventure. Merci tout particulièrement aux « KMP girls » qui se reconnaitront ici et à Bruno Delépine qui me fait l’honneur de participer au jury de la thèse.
Enfin, je pense bien évidemment à ma famille et mes amis pour leur soutien, leur compréhension et leur affection. Ce travail est un peu le leur et je les en remercie.
Sommaire
 TOC \o "1-9" \t "Titre 9;9;Titre 8;8;Titre 7;7;Titre 5;5;Titre 4;4;Titre 3;3;Titre 2;2;Titre 1;1;Titre principal;1;Titre thèse;1"  HYPERLINK \l "_toc1278"Introduction Générale 1
Chapitre 1 : De la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage 14
 HYPERLINK \l "_toc1350"Introduction 15
 HYPERLINK \l "3.1.1. Apports de la sociologie des usages|outline"1.1. Apports de la sociologie des usages 18
 HYPERLINK \l "_toc1636"1.2. Sciences cognitives et usages 49
 HYPERLINK \l "5.1.3. Les apports de la théorie de la structuration à l’appropriation des TIC|outline"1.3. Les apports de la théorie de la structuration à l’appropriation des TIC 65
 HYPERLINK \l "_toc1949"Pour une articulation des approches … 97
Chapitre 2 : Les pratiques de montage de projets innovants dans les partenariats recherche publique / recherche privée 100
 HYPERLINK \l "_toc2061"Introduction 101
 HYPERLINK \l "_toc2137"2.1. La création de connaissances : une pratique collective 103
 HYPERLINK \l "_toc2299"2.2. Les problèmes spécifiques des partenariats de recherche publique / privée dans le contexte des télécoms 142
 HYPERLINK \l "_toc2669"Conclusion 179
Chapitre 3 : Une démarche de co-conception dans une approche usage : le cas KMP 182
 HYPERLINK \l "_toc2685"Introduction 183
 HYPERLINK \l "_toc2802"3.1. L’intégration des usagers dans la démarche de co-conception 185
 HYPERLINK \l "_toc3107"3.2. Méthodologie de la recherche 215
 HYPERLINK \l "14.3.3. Le contexte de l’intervention : le projet KMP|outline"3.3. Le contexte de l’intervention : le projet KMP 243
 HYPERLINK \l "_toc4005"Conclusion 282
Chapitre 4 : Résultats et discussions 285
 HYPERLINK \l "_toc4025"Introduction 286
 HYPERLINK \l "17.4.1. Identification des acteurs sophipolitains, de leur base de connaissances et de leurs interactions|outline"4.1. Identification des acteurs sophipolitains, de leur base de connaissances et de leurs interactions 288
 HYPERLINK \l "18.4.2. Les étapes : analyse chronologique de la démarche de co-conception|outline"4.2. Les étapes : analyse chronologique de la démarche de co-conception 301
 HYPERLINK \l "19.4.3. Les boucles de co-conception : le rôle des objets intermédiaires de conception|outline"4.3. Les boucles de co-conception : le rôle des objets intermédiaires de conception 338
 HYPERLINK \l "20.4.4. Les trajectoires d’usage : le rôle des objets frontières|outline"4.4. Les trajectoires d’usage : le rôle des objets frontières 356
 HYPERLINK \l "21.4.5. Retour sur les principes de construction|outline"4.5. Retour sur les principes de construction 382
 HYPERLINK \l "_toc5096"Conclusion générale 414
 HYPERLINK \l "_toc5115"Références bibliographiques 419
 HYPERLINK \l "_toc5429"Annexes 437
 HYPERLINK \l "_toc9309"Liste des figures 476
 HYPERLINK \l "_toc9360"Liste des tableaux 478
 HYPERLINK \l "_toc9381"Liste des encadrés 479
 HYPERLINK \l "_toc9385"Table des matières 480 Introduction Générale

« Les activités qui occupent la place centrale ne sont plus celles qui visent à produire et à distribuer des objets, mais celles qui produisent et distribuent du savoir et de l’information ».
Drucker [1992 : 95].

Drucker [1992] reconnaît que la société a connu durant ces deux derniers siècles trois phases d’évolution successives. La première phase correspond à la « Révolution Industrielle » et se caractérise par une diffusion rapide des nouvelles techniques de production. La seconde phase se définit comme une « Révolution Productive » et coïncide avec l’avènement du taylorisme et la nécessité de produire plus avec une efficience maximale. Enfin, la troisième phase correspond à la « Révolution Managériale » et se caractérise par une nouvelle prise en compte de la connaissance dans ce qu’il est courant aujourd’hui d’appeler la nouvelle économie. Selon Mairesse [2002], l’avènement de cette nouvelle économie se situe dans un mouvement long de transformation des économies qui d’agricoles, puis industrielles, sont devenues surtout des économies de services, et plus fondamentalement des économies du savoir. Dans ce contexte, la dimension intellectuelle des activités économiques est de plus en plus importante et les activités de création et d’acquisition de nouveaux savoirs deviennent essentielles.

La création de connaissances : un enjeu actuel
Plus précisément, cette nouvelle économie résulte en fait de l’interaction forte entre le mouvement long de l’économie de la connaissance, la révolution des technologies d’information et de communication et la mondialisation de l’économie. L’augmentation de la concurrence qui en résulte devient une nouvelle cause d’accélération des innovations. Dès lors, les innovations permanentes, fondées sur un accroissement des connaissances scientifiques et de leur diffusion quasi-immédiate, rendent la gestion des connaissances essentielle.
La création de connaissances dans les économies modernes
Un grand nombre de travaux récents d’origines très variées ont récemment contesté la vision dominante issue de la littérature « post-coasienne » selon laquelle la firme pouvait se définir comme un ensemble de contrats qui, dans un univers d’information imparfaite, assurait la gestion des conflits individuels et canalisait les comportements à travers la mise en place d’incitations appropriées [Cohendet et Llerena, 1999]. Ces « nouvelles » approches s’accordent sur une hypothèse commune : l’attribut essentiel de la firme est constitué par ses compétences ou capacités organisationnelles. Le Mouvement Ressources – Compétences, issu des travaux pionniers de Penrose [1959], soutient ainsi que l’avantage compétitif résulte des différentiels de dotations en ressources organisationnelles critiques et de leurs combinaisons. Plus précisément, cet agencement de ressources et de capacités a pour objectif de créer et / ou de développer des compétences organisationnelles qui fondent la performance des organisations. Or, comme le souligne Grant [1996], le marché des ressources est devenu le lieu d’une compétition dynamique. La connaissance devient ainsi la ressource stratégique la plus significative pour l’entreprise. L’enjeu consiste donc à comprendre la base de connaissances de la firme comme un ensemble de capacités lui permettant d’augmenter ses chances de survie et de croissance.
Dans une optique similaire, Kogut et Zander [1996] insistent sur le rôle clé des connaissances dans la compétition actuelle en notant que ce qui fonde l’avantage des firmes par rapport au marché réside dans leur capacité à créer et à transférer des connaissances. Pour l’OCDE [2000], la capacité de créer, de diffuser et d’exploiter les connaissances est devenue l’une des principales sources d’avantage concurrentiel, de création de richesse et d’amélioration de la qualité de vie. Dans une perspective similaire, le sommet européen de Lisbonne en 2000 marque la résolution des chefs d'Etat et de gouvernements de faire de l'Union Européenne l'économie de la connaissance la plus compétitive et la plus dynamique au monde d'ici à 2010.
Création de connaissances : un besoin de variété et d’interactions
Dans la concurrence exacerbée que se livrent aujourd’hui les entreprises, le progrès scientifique intervient désormais plus directement dans le processus d’innovation [OCDE, 2000]. Cependant, l’intensification de la concurrence pousse les firmes à privilégier l’exploitation de leurs bases de connaissances [Nesta, 2001]. La réorientation de la R&D qui privilégie davantage les objectifs à court terme oblige alors les entreprises à rechercher d’autres sources de savoir. La spécialisation pose en effet le problème de l’émergence du nouveau qui suppose l’existence d’une variété [Thomas, 2002]. La recherche de variété nécessaire à l’élaboration de nouvelles connaissances conduit ainsi les firmes à combiner leurs ressources avec des ressources externes grâce notamment aux partenariats et aux alliances [Nooteboom, 2000]. Les réseaux et/ou clusters apparaissent alors comme des formes organisationnelles capables d’offrir à la fois la variété issue des bases de connaissances des différentes organisations impliquées et une certaine stabilité nécessaire à l’émergence d’interactions.
Dans cette perspective, le développement de clusters, de pôles de compétitivité, regroupant recherche et entreprises, semble être devenu « l’alpha et l’oméga des politiques d’innovation » [Foray, 2004]. Pour Blanc [2004], le modèle des clusters que Porter [1999] définit comme « un groupe d’entreprises et d’institutions partageant un même domaine de compétences, proches géographiquement, reliées entre elles et complémentaires » se trouve au cœur du développement économique. Ici, les interactions entre différents acteurs, possédant des connaissances distribuées, permettent la création de nouvelles connaissances et leur transformation en innovation. En effet, le regroupement d’entreprises et d’organismes de recherche dans des espaces géographiques limités, en s’appuyant sur les effets conjoints de proximité, a un triple effet bénéfique en accroissant la productivité, l’innovation et l’entreprenariat. La polarisation des activités d’innovation offre ainsi une hétérogénéité des connaissances [March, 1991] dans laquelle la recherche publique, dont la principale activité est la création de connaissance, joue un rôle prépondérant.
Cependant, si les combinaisons potentielles de connaissances dépendent de la distribution des connaissances sur un territoire donné, leur réalisation ne va pas de soi. Pour Acs et al. [2003], elles ont besoin d’être découvertes et mises en œuvre car les proximités géographiques ne suffisent pas à les faire émerger. Dans le cas des partenariats entre recherche publique et recherche privée, cette réalité est d’autant plus forte qu’il s’agit de deux communautés très différentes dont les codes, répertoires et systèmes de valeur divergent notablement, et qui de surcroît ne possèdent pas nécessairement les clés d’interactions réciproques. De ce point de vue, les TIC peuvent se comprendre comme des leviers potentiels du pilotage de ces interactions.
TIC et création de connaissances
Parce qu’elles offrent de larges possibilités de traitement des informations et des communications entre individus, les technologies de l’information et de la communication apparaissent de plus en plus souvent comme un complément voire le préalable indispensable à la recherche d’une plus grande flexibilité, à la capacité de créer des coopérations transversales entre différents acteurs ou encore au développement de partenariats et d’échanges. L’introduction des TIC dans les organisations ou dans des communautés est fréquemment présentée comme une opportunité nouvelle d’échange de connaissances et d’interactions entre les individus. Les TIC constituent en effet un ensemble d’outils permettant de recueillir, de stocker et de transférer des connaissances codifiées.
Deux types d’outils sont généralement développés [Zack, 1999 ; Godé-Sanchez, 2006] :
La première catégorie désigne des solutions TIC supportant la gestion et la distribution de stocks existants de connaissances codifiées. Nous retrouvons dans cette catégorie des outils tels que les bases de données, la gestion électronique de documents ou encore le datawarehouse. Leur usage renvoie à la volonté d’intégrer des connaissances souvent dispersées et parfois redondantes afin d’accroître la cohérence et l’efficacité des actions des agents dans une perspective patrimoniale.
La seconde catégorie d’outils TIC correspond à toutes les technologies qui soutiennent directement les interactions entre les agents dans des organisations et/ou vers l’extérieur en facilitant l’échange des connaissances. Souvent, ces outils ont pour vocation d’orienter les membres d’organisations ou de communautés vers les meilleurs experts. Parmi ces outils, nous pouvons notamment citer les Intranet (support d’accès à la connaissance et aux échanges dans l’organisation), les groupware (technologies destinées à supporter la collaboration et à permettre le partage de connaissances grâce aux espaces collaboratifs) et les arbres de connaissances (outils permettant de représenter les compétences des collaborateurs dans une organisation). Ici, leur usage renvoie à la volonté de soutenir des processus de coopération et de création de connaissances.
Dans les deux perspectives, l’efficacité de cette solution est à nuancer. En effet, si leur usage permet de relier des acteurs hétérogènes, comme recherche publique et recherche privée, c’est au prix d’un certain degré d’abstraction des connaissances, qui fait perdre leur dimension contextuelle. De plus, si les TIC peuvent parfois permettre de faciliter l’interaction, elles posent un problème supplémentaire dans la mesure où leur usage ne va pas de soi. Leur utilisation n’est jamais acquise et leur appropriation par les usagers déterminée a priori. En d’autres termes, les usages vont se construire en situation réelle et restent en partie à définir.

Problématique et question de recherche
Il apparaît clairement que la coopération entre recherche publique et recherche privée est à la base des systèmes de compétition actuels fondés sur une accélération des processus de création de connaissances et de leur transformation en innovation. Dans cette perspective, les regroupements géographiques d’entreprises et de centres de recherche, en prenant appui sur les effets positifs conjoints de proximité et de coopération recherche publique / recherche privée, apparaissent comme des modes organisationnels indispensables. Pour autant, un certain nombre d’études récentes pointent les problèmes que soulèvent la découverte et la mise en œuvre efficiente des potentialités d’interactions, et ceux, même dans des situations où les acteurs sont géographiquement proches.
Parce qu’elles offrent des potentialités en termes de communication et d’échange, les « nouvelles » technologies de l’information et de la communication apparaissent comme des solutions potentielles. Cependant, la prégnance des TIC sur l’économie et la vie sociale devient aujourd’hui telle qu’on ne saisit plus leurs spécificités et qu’elles semblent s’effacer derrière les activités socio-économiques qu’elles outillent [Arena et al. 2005].

Dans ce contexte, nous proposons d’étudier la problématique des partenariats entre recherche publique et recherche privée sous un angle particulier en posant la question de recherche suivante :
Quelle solution TIC pour favoriser l’émergence de projets innovants entre recherche publique et recherche privée ?
Il s’agit plus particulièrement de la question de la conception d’une solution TIC apte à favoriser la création de connaissances par le biais de ce type de partenariats. Cette interrogation amène alors à résoudre plusieurs questions fondamentalement liées, qui s’articulent en trois niveaux :
L’analyse des usages
Tout travail de conception d’une solution TIC pose, de façon plus ou moins directe, le problème de l’usage. Cette question est d’autant plus prégnante qu’à l’heure actuelle, l’engouement pour les technologies de l’information conduit un grand nombre de chercheurs [Orlikowski, 1999 ; Benghozi, 2001] à s’interroger sur le « paradoxe de la productivité » de ces technologies (à savoir qu'un investissement accru dans ce domaine ne fait pas progresser la productivité en conséquence). Ainsi, les technologies de l'information ne peuvent pas, en elles-mêmes, faire augmenter ou baisser la productivité : seule leur utilisation le peut. « Ce sont souvent les modalités et les types d’outils utilisés, la façon dont ils ont été mis en œuvre, qui sont les plus importants et les plus déterminants du point de vue des impacts organisationnels et non pas le système technique en soi » [Benghozi, 2001 : 13]. Dès lors, la solution seule, même la « meilleure possible », ne garantit pas son efficacité. Il convient désormais de dépasser, comme le proposent les auteurs du Centre de Sociologie de l’Innovation, l’a priori selon lequel le choix d’une solution efficace en garantit son succès, et donc de véritablement interroger la notion d’usage. Il s’agit de proposer une analyse concomitante de la technologie et de l’usage qui en fait.
Quelle dialectique usage - technologie ?
Dans cette optique, l’analyse des besoins n’est plus suffisante et il devient nécessaire de s’interroger sur les pratiques effectives dans lesquelles l’usage de l’outil va se construire.
De l’analyse de l’usage au problème de la pratique
Retenir une approche usage conduit naturellement à placer les pratiques au cœur de l’analyse. En effet, la mise en œuvre des TIC doit toujours être l'occasion d'une réflexion organisationnelle [Benghozi, 2001]. Dans le cadre de cette recherche, les pratiques qui sont amenées à supporter l’usage de la solution TIC sont les montages de projets innovants entre la recherche publique et la recherche privée. La nature même de ces projets innovants qui visent à la création de connaissance appelle alors à s’interroger sur leur essence :
Quels sont les mécanismes de création de connaissances ?
Quelles sont les conditions favorables à la création de connaissances ?
Puis, parce que la coopération est un mode organisationnel particulier, elle devra elle-aussi être analysée dans sa singularité. En effet, en supportant l’échange et la combinaison de connaissances, la coopération donne accès à la variété et est donc l’occasion de la combinaison. Le cas des partenariats recherche publique / recherche privée est d’autant plus puissant que la recherche publique concentre ses efforts sur la seule création de connaissances nouvelles, sources d’innovations potentielles pour les acteurs du privé. Toutefois, ce type de coopération pose des problèmes très différents, à première vue, que lorsque la coopération n’implique que des acteurs relevant du secteur privé [Estades et al., 1996 ; Gaffard, 1989 ; Gonard et Durand, 1995 ; Hagedoorn et al., 2000].
Quelles sont les caractéristiques des partenariats recherche publique / recherche privée ?
Quelles sont les conditions favorables au montage de ces partenariats ?
La prise en compte de l’usage dès la conception
En définitive, travailler sur une solution TIC capable de favoriser l’émergence de projets innovants entre recherche publique et recherche privée pose le problème de l’intégration de l’usage dès la conception. Plus spécifiquement, il s’agira d’interroger les méthodes de conception qui intègrent les usagers dès les premiers moments du cycle de conception.
Quelles sont les méthodes de conception qui prennent en compte les usagers à part entière ?
Cependant, les problèmes croissants de productivité des TIC nous conduiront tout particulièrement à dépasser cette simple intégration des utilisateurs au processus de conception pour prendre en compte l’usage, dans sa globalité, dès la conception. Ici, la mise en situation d’usage réel [Orlikowski, 2000] et la construction d’un réseau sociotechnique [Akrich, Callon et Latour, 1988] qui supporte le développement de l’usage et de l’innovation apparaîtront comme des éléments clés de la démarche de conception. Ils nous conduiront finalement à nous interroger sur ce qui nous semble être la pierre angulaire de cette recherche :
Comment assurer la co-évolution de la conception et des usages ?

À propos de la méthode
La nature de notre sujet nous conduit à opter pour une méthode de recherche dans laquelle la conception d’un outil est centrale. Dans cette perspective, les méthodes de recherche intervention, parce qu’elle place la conception de méthodes, outils ou procédures au cœur de la recherche, apparaissent incontournables.
Ce type de recherche se distingue d’autres méthodes de recherche qualitative dans la mesure où, d’une part, il attribue un statut particulier au chercheur, et d’autre part, il ne vise pas une orientation explicative. Ainsi, le chercheur s’apparente à un chercheur-ingénieur investi dans la construction « d’artefacts qui opèrent, pour les acteurs en situation de questionnements stratégiques, une fonction médiatrice dans et vers la construction mentale de la réalité » [Claveau et Tannery, 2002]. Dans cette perspective, le chercheur contribue donc à l’activité réflexive de conception des problèmes et des situations stratégiques d’acteurs du terrain. En ce sens, ce type de recherche relève plutôt, selon Claveau et Tannery [2002], de « la position défendue par Argyris [1996] au sujet de la design causality en considérant que la recherche a pour finalité de travailler sur et pour une activité de création humaine ».
Afin d’accomplir ce projet de recherche, nous avons participé pendant trois ans, avec une équipe de chercheur, à la création d’un prototype de site web de compétences : le projet KMP –Knowledge Management Platform-. L’objectif de ce projet était de construire une solution innovante de « Knowledge Management » partagée entre différents acteurs, au sein d’un réseau inter firmes et inter organisations (Telecom Valley®) dans le domaine des télécommunications à Sophia Antipolis. Ce projet provenait à l’origine d'une demande des Institutionnels locaux membres de l’Association Telecom Valley (CCI Nice Côte d'Azur, Côte d'Azur Développement, Fondation Sophia Antipolis…) exprimant le besoin de repérer et valoriser les compétences en Télécommunications des acteurs de la région dans un but de marketing territorial. Au-delà d'un souci initial de visibilité des compétences, le projet visait également à renforcer la dynamique locale d’innovation par la multiplication des partenariats locaux entre industriels et entre recherche publique et recherche privée. Cette solution était une composante d'un portail web de compétences destiné à une communauté d'entreprises, d'institutionnels et d'organismes de recherche pour instrumenter de la manière la plus efficace possible un processus d’échange et de combinaison de leurs connaissances.
Ce cas d’analyse s’inscrit parfaitement dans la problématique de notre recherche. Il s’agit en effet de concevoir une solution TIC qui facilite notamment l’émergence, au sein de Telecom Valley, de projets innovants entre recherche publique et recherche privée. Ce cas semble d’autant plus intéressant à investir que le projet correspond véritablement à une demande forte des Institutionnels locaux, reprise au-delà par une partie des industriels du site sophipolitain.
Orienter notre analyse sous cet angle précis d’une recherche à visée ingénierique nous conduira à combiner et expérimenter deux approches méthodologiques du design [Romme et Endenburg, 2006 ; Hatchuel et Mollet, 1986]. Quelques-uns des traits centraux d’une telle recherche méritent d’être mis en avant [Claveau et Tannery, 2002 ; Romme et Endenburg, 2006 ; David, 2000 a] :
Tout d’abord son caractère « spiralé » c’est-à-dire fondé sur un processus itératif théorie –terrain qui nécessite des retours théoriques fréquents pendant la conception du modèle ou de l’outil.
Puis, en raison de la visée, la nécessité de disposer dès le départ d’une information en adéquation avec le projet.
Ensuite, la prise d’appui forte sur les théories en sciences des organisations, pour construire des principes méthodologiques et des règles de design supportant la conception de l’outil et lui assurant une certaine assise scientifique.
Enfin, la place centrale accordée à la construction de l’objet qui constitue une première étape au processus de recherche.

Présentation globale du processus de recherche
Si notre processus de recherche a toujours associé le travail théorique et le travail empirique, le mode d’exposition dissocie les résultats en quatre chapitres. Les premier et deuxième chapitres sont l’occasion d’interroger les usages puis les pratiques associées à la solution TIC. Le troisième chapitre pose le problème de la conception d’une telle solution et détaille les démarches de co-conception orientée usage, qui sera ensuite présentée telle qu’elle a été expérimentée dans le cadre du projet KMP. Enfin, le dernier chapitre présentera l’articulation des principaux résultats de cette recherche.
Le schéma suivant offre ainsi une vision d’ensemble de l’architecture de la thèse.
 SHAPE 
La question des usages trouve son origine dans la rencontre entre les technologies de l’information et de la communication et des activités de nature collective qui mobilisent des dimensions cognitive, sociale et économique. La profusion de ces nouvelles technologies ces dernières décennies a fait l’objet de nombreux discours, « tantôt apologétiques, tantôt apocalyptiques », [Millerand, 1998]. Aujourd’hui, la question des usages connaît un regain d’intérêt notable, notamment parce que les enjeux que révèle cette notion sont d’importance : ils permettent de dépasser les visions technicistes souvent dominantes et qui expliquent en partie que les retours sur investissement dans ces technologies ne soient pas à la hauteur des espérances. Le premier chapitre est alors consacré à l’analyse du concept d’usage. Plus spécifiquement, cette analyse s’inscrit dans la voie ouverte par les perspectives émergentistes qui cherchent à capturer la complexité des processus sociaux liés à la technologie. Dès lors, ce chapitre propose d’appréhender les notions d’usage et de technologie à la lumière de trois courants théoriques : la sociologie des usages, la théorie de la cognition distribuée et la théorie de la structuration appliquée l’informatisation en milieu organisationnel.

L’analyse respective des usages et de la technologie nous conduit dans un second chapitre à nous poser la question essentielle des pratiques au sein des environnements d’accueil de la technologie. En effet, penser les usages des dispositifs techniques à partir de l’étude concrète des pratiques constitue une piste privilégiée pour saisir l’action de la technique dans la société, dans la mesure où une telle posture permet généralement d’éviter l’écueil du déterminisme, qu’il soit de nature technologique ou sociale [Breton et Proulx, 2002].
La première section portera ainsi sur la dynamique de création de connaissances et plus particulièrement sur ses processus de création. La multiplication des travaux sur ce thème nous conduira à proposer dans un premier temps une définition du concept de connaissance et une articulation de ses principales formes. Dans un second temps, une fois explorée la notion de connaissance, nous traiterons des mécanismes de sa création. La nature collective des pratiques que nous analysons nous conduira alors à retenir une approche collective et à examiner le rôle joué par la codification dans ces processus.
Dans une seconde section, nous nous attacherons à mettre en évidence les problèmes spécifiques qu’engendrent les partenariats entre recherche publique et recherche privée. Nous proposerons ainsi une analyse en trois temps. Tout d’abord, nous étudierons les évolutions du contexte partenarial c’est-à-dire du système d’innovation et de recherche français. Puis, en raison de la visée ingénierique que nous avons retenue dans cette recherche, la nécessité de disposer dès le départ d’une information en adéquation avec le projet nous conduira à étudier le secteur des télécommunications français. Enfin, nous nous attacherons à mettre en évidence les modalités et freins de ce type de partenariats autour de quatre thèmes : l’analyse de deux communautés différentes, l’incidence des modalités contractuelles, les déterminants du choix des partenaires et enfin l’importance des proximités.

Les capacités technologiques de transmission et de traitement de l’information ouvrent le champ libre à l’innovation en matière de nouveaux services. Dans cette perspective, l’orientation usage s’avère être un point clé de la conception et de la mise en œuvre d’une solution technique dont l’objectif est de faciliter l’émergence de projets innovants dans les partenariats recherche publique et recherche privée. Le chapitre 3 visera alors à détailler cette démarche de co-conception orientée usage. Il s’agira plus précisément d’interroger les démarches de conception qui placent les utilisateurs au centre de l’analyse, voire qui place l’usage, dans sa globalité, au cœur du cycle de développement d’une solution technologique. Cette grille d’analyse nous conduira à détailler notre démarche méthodologique et à mettre en évidence, de façon synthétique, son application dans le cadre de l’expérimentation KMP.

Enfin, dans un quatrième et dernier chapitre, nous mettrons en exergue les principaux résultats de cette recherche. Nous montrerons d’abord que le cluster sophipolitain s’avère être un cas particulièrement fécond à analyser, dans la mesure où il recèle une grande complémentarité des bases de connaissances entre les acteurs de la recherche publique et de la recherche privée sans pour autant que la proximité géographique assure la réalisation de leurs interactions. Puis, compte tenu de la visée ingénierique de notre recherche, nous détaillerons chacune des boucles de co-conception mises en œuvre dans le cadre du projet KMP., en prenant appui sur la démarche méthodologique développée dans le chapitre 3. Dans cette perspective, le rôle prégnant des objets intermédiaires et frontières construits au cours du processus de conception sera mis par la suite en évidence. Plus spécifiquement, nous montrerons que la réalisation d’objets frontières assure la convergence des boucles de co-conception et des trajectoires d’usage, nécessaire à la réussite de notre projet de conception. Enfin, nous proposerons une prise de recul sur la démarche mise en ouvre dans le cadre de ce projet. Il s’agira en quelque sorte de « nous regarder concevoir » la solution KMP, pour conclure en discutant des apports d’une solution TIC à la mise en œuvre de projets innovants dans les partenariats recherche publique / privée d’une part, et d’une démarche de co-conception orientée usage d’autre part. Chapitre 1 : De la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage
Introduction

« La tâche prioritaire qui attend aujourd’hui les chercheurs concernés par l’étude des usages des TIC consiste à élaborer un cadre théorique bâti à partir de complémentarités entre les problématiques et d’une hybridation entre les diverses approches théoriques »
[Breton et Proulx, 2002 : 273].

Les années 80 ont été marquées par la profusion de nouvelles technologies d’information et de communication tels le magnétoscope et les premières expériences de réseaux télématiques. Plus tard, en informatique, la miniaturisation des matériels et la réduction des coûts mettent le micro-ordinateur à la disposition de milliers d’individus et d’entreprises. Cette profusion des outils TIC associée aux progrès spectaculaires des télécommunications contribue à augmenter considérablement les possibilités de communication et de services à distance et modifie par là même les modes de communication et d’interaction entre les individus et entre les individus et les technologies elles-mêmes.
Dans ce contexte d’innovations croissantes, la question des usages des TIC apparaît au cœur des préoccupations notamment en raison des succès et échecs non anticipés de mise sur le marché de technologies nouvelles. Deux exemples frappant de succès non anticipés sont le cas des quelques 6 milliards de SMS (short message service) échangés partout en France ou encore de l'apparition et la diffusion, sur Internet, des premiers systèmes d'échange de fichiers musicaux (Napster, Gnutella, etc.). En effet, dans le cas des SMS, les opérateurs de téléphonie mobile n'imaginaient pas à l'époque l'intérêt pour le consommateur de cette fonctionnalité qui n’était au départ prévue que pour faciliter les communications entre les opérateurs et leurs clients. Un autre exemple, pour sa part moins heureux, est celui du fort investissement de l’industrie des télécommunications dans le WAP (Wireless Application Protocol). Cet investissement connaît aujourd’hui un impact fortement contrasté. Il est considéré comme un échec cuisant en France mais a contrario il fait preuve d'un succès stupéfiant au Japon.
Ces préoccupations récentes, intrinsèquement liées à la montée en puissance des TIC, poussent de nombreux auteurs à s’intéresser aux liens entre technologies et usages. Ce champ de recherche fait, à l’heure actuelle, l’objet d’un foisonnement de travaux et « force est de constater que peu d’efforts méthodologiques ou épistémologiques ont été consacrés jusqu’ici à un travail de clarification conceptuelle de ces notions trop souvent prises comme ‘allant de soi’ » Proulx [1994 : 150]. Dans ce contexte, l’objectif de ce chapitre est de fournir une analyse approfondie des usages en liaison avec une définition des technologies. Ce préalable est nécessaire pour éclairer notre problématique de conception d’une solution TIC dans une démarche orientée usage.
Pour ce faire, nous analyserons dans une première partie les apports de la sociologie à la problématique des usages des médias et des nouvelles technologies. Communément appelé sociologie des usages, ce champ de recherche a durant les 30 dernières années permis de donner une visibilité certaine aux travaux sur la question des usages, tant du point de vue empirique que théorique. Cette section nous permettra de mettre en évidence trois différents niveaux dans les usages : la diffusion, l’appropriation et l’innovation de solutions TIC.
Cependant ces approches n’arrivent pas à expliciter les fortes variations sur le plan des usages entre les utilisateurs, et cela, au sein de contextes d’usage pourtant similaires [Millerand, 2003]. C’est pourquoi il sera nécessaire dans une seconde partie de nous référer à la théorie de la cognition distribuée dont l’apport est de fournir conception originale des objets techniques, de leurs propriétés intrinsèques et donc de leur usage. nous effectuerons un détour par les théories de la cognition distribuée et de la structuration. Nous verrons ainsi que l’examen des variations fines d’usage, non explicitées par les travaux en sociologie, renvoie à d’autres dimensions et implique de situer l’analyse à un autre niveau, cognitif celui-là.
Toutefois, les pratiques de mise en œuvre de projets innovants dans les partenariats recherche publique / privée qui constituent l’objet de notre recherche présentent une dimension organisationnelle que l’approche cognitive ne permet de prendre en compte. C’est pourquoi nous proposerons dans une troisième section d’analyser les apports de la théorie de la structuration à la question des usages des TIC. Dans cette perspective, il s’agit d’appréhender « le paradoxe de la productivité des TIC » [Orlikowski, 1999] c’est-à-dire comprendre pourquoi l'augmentation des investissements dans le domaine des TIC ne se traduit pas forcément par une augmentation des performances.
1.1. Apports de la sociologie des usages
Les mutations récentes de l’environnement technologique des ménages et entreprises ont conduit à une effervescence des travaux en sociologie consacrée à l’étude des usages. Effectuer une synthèse de l’ensemble de ces travaux ne constitue pas l’objectif majeur de cette section, d’autant que les risques d’oublis face au volume d’études réalisées sont grands. Ici, nous choisissons d’adhérer à l’optique développée par Jouët [2000] et qui consiste « à faire l’économie d’un recensement systématique des travaux au profit d’une approche synthétique et critique » [2000 : 489].
Comme le souligne Chambat [1994 : 254], « la sociologie des usages des TIC ne constitue pas une sous-discipline reconnue de la sociologie disposant d’une légitimité repérable à des signes institutionnels » mais « désigne plutôt une préoccupation marquée pour un type de problèmes ». La sociologie des usages articule ainsi trois disciplines internes à la sociologie - technique, communication et modes de vie- qui se distinguent les unes des autres par la manière dont elles agencent la relation « offre technique èð demande sociale ». Même si cette distinction revêt une part d artifice [Chambat, 1994] dans la mesure où, en pratique, de nombreuses recherches empruntent à chacune d’elles, elle nous semble pour autant pertinente pour notre analyse des apports de la sociologie à la problématique spécifique des usages. Prenant appui sur cette distinction, notre présentation s’articule en trois temps : dans un premier temps, nous nous attacherons à l’analyse de l’approche de la diffusion ; puis, dans un second temps, nous développerons les travaux qui forment l’approche dite de l’appropriation ; enfin, nous nous pencherons sur les apports de l’approche de l’innovation à une définition de la technologie et des usages.
1.1.1. L’approche de la diffusion
Originellement formé à la sociologie rurale, Rogers [1995], s’orientant vers l’étude des médias de masse, élabore l’ouvrage fondateur de l’approche de la diffusion dans lequel il décrit un modèle pour l’étude de la diffusion sociale des innovations techniques. Les recherches se réclamant de ce type d’approche s’attachent ainsi à l’analyse de l’adoption d’une innovation technologique au moment de sa diffusion. Il s'agit pour ce type de recherches d'appréhender dans un premier temps l’inégal taux d’équipement ou de possession selon les groupes sociaux (qui possède quoi), puis les conditions et disparités d’utilisation (qui fait quoi, avec quelle fréquence). Par la suite, une attention toute particulière est apportée à l’analyse des disparités d’utilisation. Celles-ci sont expliquées par corrélation avec les variables sociodémographiques classiques définissant les groupes sociaux : âge, sexe, profession, revenu … et une batterie de techniques quantitatives qui permettent de cerner la ou les variables explicatives des écarts constatés.
Dans cette approche, l’objectif consiste à créer des modèles comportementaux à visée dynamique qui intègrent les stratégies des ménages dans leurs choix d’équipements et de pratiques et à mesurer les impacts de la diffusion des techniques [Chambat, 1994]. Ici, les recherches sont généralement à finalité prescriptive et se focalisent, comme le préconise la théorie de Rogers, sur cinq catégories d’adoptants : innovateurs, adoptants précoces, première majorité, majorité tardive, et retardataires. La diffusion y est analysée en termes d’évolution du taux d’adoption qui décrit généralement une courbe en S. Au final, il s’agit pour cette approche d’expliquer le succès de la diffusion d’une technique par quatre types de facteurs [Breton et Proulx, 2002 : 263-264] :
Les caractéristiques même de l’innovation : avantages concurrentiels relatifs, compatibilité en termes de valeur et de besoins avec la population cible, facilité d’usage …
Les stratégies de communication mises en place par les agents de changement pour convaincre la population cible de la pertinence de l’innovation. Ici, l’importance des conversations interpersonnelles est prégnante.
Le passage successif du consommateur par chacune des étapes du processus d’adoption à savoir la connaissance de l’objet, la conviction intime de sa pertinence, la décision d’adopter, l’essai d’usage et enfin la confirmation d’adoption.
Enfin, la structure sociale dans laquelle le processus se déroule. Celle-ci influence le processus d’adoption par la structure du pouvoir qui s’y exerce, l’existence de réseaux de communication informelle, le rôle des leaders d’opinion ou encore l’impact des normes sociales qui y sont en vigueur.
Dans cette perspective, Breton et Proulx [2002] soulignent que l’apport principal de ce modèle consiste en « la description détaillée de tout ce qui est en aval de l’objet technique offert par l’industrie et qui est simultanément en amont de l’usage effectif de ce même objet ». L’intérêt majeur de cette démarche se situe également, selon Flichy [1995], dans la description du réseau social dans lequel l’innovation va circuler.
En revanche, indépendamment des nombreuses critiques de fond inhérentes à ce modèle, il nous semble que l’apport du modèle diffusionniste de Rogers à la problématique des usages des TIC reste fortement limité dans la définition même des usages retenue. Plus particulièrement, l’usage s’apparente davantage à l’adoption d’une innovation qu’à un usage réel. Selon Breton et Proulx [2002 : 264], « bien que Rogers introduise la notion d’usage -sous l’appellation d’‘implémentation’- comme l’une des étapes de l’adoption, nous définissons quant à nous l’‘implémentation’ rogérienne davantage comme une étape préalable (un ‘essai pour l’usage’) qui ne peut se substituer à l’usage effectif, et sur une longue période, de l’innovation ‘adoptée’ par l’individu ». La vision de l’usager est ainsi restrictive dans la mesure où son choix se restreint à l’adoption ou non (même si Rogers introduira plus tard la notion de ‘réinvention’ pour rendre compte de la façon dont les usagers modifient le dispositif qu’ils adoptent [Millerand, 1998]). La technologie, quant à elle, relève d’une approche positiviste qui privilégie un modèle linéaire du processus d’innovation.
A contrario, nous pensons que les usages d'une technologie ne sont pas prédéterminés par la technologie elle-même (déterminisme technologique) mais construits par les acteurs dans leurs pratiques quotidiennes. De ce fait, il semble délicat de retenir l’approche rogérienne de la diffusion de l’innovation pour construire notre problématique de l’usage des TIC. Trois raisons majeures motivent notre choix :
L’approche rogérienne de la diffusion des innovations traite la technologie comme une boîte noire.
Elle adresse la question de l’adoption ou non d’une technologie et limite de ce fait l’usage à l’adoption.
Cette approche ne nous semble de ce fait pas pertinente au regard de notre problématique de conception orientée usage pour deux raisons essentielles : la première qui consiste à analyser l’usage sous l’angle de l’adoption, la seconde qui propose un modèle linéaire de la conception d’innovation, aujourd’hui largement critiqué dans la littérature.
1.1.2. L’approche de l’appropriation
Cette approche renvoie en sociologie des usages à un très large éventail de travaux qui forment cependant un ensemble cohérent aux frontières délimitées. En particulier, ces travaux se distinguent des autres courants de la sociologie des usages à savoir l’approche de la diffusion analysée précédemment et de celle de l’innovation du CSI. En effet, à la différence de l’approche de l’innovation, centrée sur le moment de la conception des dispositifs techniques, l’approche de l’appropriation situe ses analyses sur le plan de leur mise en œuvre dans la vie sociale. Contrairement à la perspective de la diffusion, l’approche de l’appropriation se distingue en analysant la formation des usages du point de vue des usagers et non à travers l’évolution d’un taux d’adoption [Millerand, 1998].
Dans cette approche dite de l’appropriation, il semble qu’un découpage en thématiques soit possible, celles-ci rassemblant à leur tour différentes problématiques qui articulent des unités et niveaux d’analyse différents [Chambat, 1994 ; Millerand, 1998]. Rappelons toutefois que notre objectif consiste moins en une synthèse de l’ensemble des travaux de la sociologie des usages (ce qui au regard de la multiplicité des travaux paraît utopique) qu’en la volonté d’appréhender la profondeur de la notion d’usage. De ce fait, en nous appuyant sur les travaux de Millerand [1998], nous présenterons succinctement chacun des thèmes traités afin de centrer notre analyse sur la vision des usages sous-jacente à l’approche de l’appropriation.
D’après Millerand [1998], quatre thématiques émergent au sein de l’approche de l’appropriation :
Les formes de l’appropriation : ici, la question centrale s’articule autour de l’analyse des différents usages de dispositifs techniques selon les groupes sociaux. Cette problématique est à l’origine d’un ensemble de questionnements divers :
Perriault [1989] s’est particulièrement intéressé au constat de l’inadéquation entre les usages prévus et les usages effectifs comme le cas du magnétoscope –conçu initialement comme outil de vidéo et utilisé en pratique comme périphérique de la télévision essentiellement pour visionner des cassettes vidéo. À travers l’examen des pratiques déviantes c’est-à-dire « des pratiques qui sont autre chose que des erreurs de manipulation, et qui correspondent à des intentions, voire des préméditations » [op. cit. : 203], Perriault a développé des propositions sur les logiques d’usage des consommateurs. Il semble bien, comme l'expose Perriault, que face aux modes d'emplois prescrits par les inventeurs des technologies, les premiers utilisateurs tendent à toujours proposer « des déviances, des variantes, des détournements et des arpèges ». Or, toujours selon l’auteur, « il y a des convergences dans les formes d’usage, de grands regroupements, ce qui permet de supposer l’existence d’un modèle identique du fonctionnement chez les divers utilisateurs » [op. cit. : 203]. Dès lors, plusieurs alternatives dans l’usage peuvent être mises en évidence : « certains appareils se trouvent cantonnés dans des pratiques magiques, alors que d’autres en sont au stade instrumental, sans compter ceux qui ont été définitivement rejetés » [op. cit. : 203]. Ici, l’usage est donc bien abordé du point de vue des différences entre usages prescrits et usages réels.
D’autres auteurs se sont penchés sur les significations d’usage qui correspondent aux représentations et valeurs inscrites par les usagers dans les dispositifs techniques. Dans cette perspective, Mallein et Toussaint [1994] ont développé une grille d’analyse sociologique de l’usage des TIC. Opérant une confrontation de l’offre avec les pratiques et représentations des individus, ceux-ci ont mis en évidence deux types de rationalité à l’œuvre dans la construction de l’offre, chacune reflétant une certaine problématisation des usages. Ainsi, dans le premier type de rationalité, celle de la cohérence sociotechnique, l’offre cherche une alliance avec la demande en tenant compte de la façon dont les usagers sont déjà insérés dans tout un ensemble social, culturel, technique, organisationnel … et surtout de la manière dont ils se représentent et pratiquent cette insertion. Dans la rationalité de la performance techniciste, l’offre considère que l’alliance est obtenue à partir du moment où la problématisation d’usage de la nouvelle TIC fait table rase de l’existant, désigne aux usagers les places qu’ils vont occuper, les pratiques nouvelles qu’ils vont développer et les représentations idéales de cette technique vers lesquelles ils doivent tendre. Mallein et Toussaint proposent ainsi une grille d’analyse sociologique des significations d’usage qui s’appuie sur quatre couples d’opposition conceptuelle : banalisation vs idéalisation, hybridation vs substitution, identité active vs identité passive, évolution sociale vs révolution sociale. Comme le soulignent les auteurs, cette grille d’analyse sociologique identifie quatre plans sur lesquels peut se lire le destin de la mise en usage des nouvelles TIC. Ainsi, toute nouvelle TIC est confrontée (1) aux technologies existantes, avec une rationalité qui cherche soit à banaliser la nouvelle TIC en l’accrochant aux techniques existantes, soit qui cherche à l’idéaliser en la dégageant des autres techniques ; (2) aux pratiques d’information et de communication de l’usager avec soit une rationalité qui hybride la TIC aux pratiques préexistantes ou inversement la substitue ; (3) aux identités sociales des usagers, avec une rationalité qui laisse la possibilité aux usagers de se servir de la nouvelle TIC pour agir ou jouer sur leur identité sociale, l’autre qui désigne l’identité sociale à laquelle tout usager doit se conformer dans l’usage de la nouvelle TIC ; (4) aux évolutions des champs sociaux de son usage, une rationalité cherchant à accompagner les évolutions sociales en cours dans les différents champs sociaux de l’usage de la nouvelle TIC (famille, vie relationnelle, organisation du travail, espace public...), l’autre cherchant à imposer de nouveaux rapports sociaux et à révolutionner les champs sociaux de l’usage de la nouvelle TIC.
Cette problématique des significations d’usage est également investie par d’autres auteurs dans une voie différente de celle de l’étude des usages sociaux : Proulx et Laberge [1995] se sont attachés à l’analyse des processus de construction identitaire des publics à travers les significations d’usage de la télévision ; Lacroix [1994] s’est quant à lui penché sur les discours qui accompagnent la sortie d’une innovation technologique et sur le rôle de ceux-ci dans la construction de représentation par les usagers.
Ici, l’usage renvoie davantage aux pratiques et donc à la mise en situation de l’objet technique.
Les technologies domestiques et l’évolution des modes de vie : il s’agit moins dans cette thématique d’analyser les usages en tenant compte des pratiques antérieures des individus que d’étudier les incidences de l’introduction des technologies sur l’évolution des modes de vie, et ceci quelle que soit la sphère d’activité étudiée. Toussaint [1992] s’intéresse par exemple au bouleversement provoqué par la télématique dans les rapports établis entre la sphère publique et la sphère privée : « elle permet à partir du territoire domestique privé de communiquer, selon les modalités nouvelles d’une écriture sur l’écran, tant avec les institutions et des services constitutifs de l’espace public qu’avec des personnes privées connues ou anonymes » [ibid. : 128]. Il s’attache également à l’analyse des nouvelles formes de rapport au temps et à l’espace avec le développement des TIC, comme la possibilité d’effectuer des achats en ligne sans la contrainte des heures d’ouverture ou encore les formes de télétravail.
D’autres auteurs se sont penchés sur des problématiques qui débordent de la simple analyse des phénomènes d’appropriation pour interroger le rôle des technologies sur la technicisation des problématiques de communication et les conséquences à long terme de ces nouvelles formes de communication. Par exemple, Jouët [1993] constate que « les technologies à composantes informatique et interactive, qui meublent les foyers de façon croissante, apportent avec elles une nouvelle posture de relation aux outils de communication » [Millerand, op. cit. : 9].
Ici, c’est plus la question de l’impact de l’objet qui est abordée.
L’usager actif, autonome et privé : consommateur ou citoyen ? les questions portent dans cette perspective sur les « figures » de l’usager et révèlent, à partir des travaux pionniers de De Certeau [1980], la figure d’un usager actif, rusé et capable de créer ses propres usages. Ces travaux s’opposent ainsi à ceux sur les médias de masse qui prônaient des usagers passifs et mettent en valeur, sur la base d’études ethnographiques, une image active de l’usager. En d’autres termes, ils reconnaissent et au-delà ouvrent la voie à l’analyse des usages émergents. Ces travaux sont à l’origine de grands débats opposants des visions du monde très différentes. Ainsi, pour Lacroix [1994], les usagers ne sont pas autonomes et les usages naissent en premier lieu en réaction à l’offre : « c’est l’offre qui amorce le processus d’implantation et de généralisation des NTIC, y compris en ce qui a trait à la formation des usages sociaux de ces technologies » [ibid.. : 146]. Pour Proulx [1994] (cité par Millerand [1998]), l’usager voit sa marge de manœuvre limitée à la zone définie par les stratégies des acteurs producteurs ; en d’autres termes, l’usager ne peut résister à l’offre qu’à l’intérieur de ce qui lui est donné à voir, à entendre, ou à utiliser. Ainsi, les phénomènes de zapping peuvent être envisagés comme des stratégies de téléspectateurs qui réussissent à se soustraire du programme imposé.
Ici, c’est davantage la figure de l’usager qui est mise en exergue.
La socio-politique des usages : essentiellement portée par Vedel [1994] et Vitalis [1994], cette approche vise à fournir un cadre d’analyse permettant d’appréhender le processus d’innovation et celui d’appropriation. En ce sens, et comme le soulignent les auteurs, cette approche « ne constitue pas un programme de recherche nouveau, ou une rupture de paradigme, mais une tentative pour articuler dans un même cadre analytique les apports respectifs de perspectives existantes, qui, chacune, ont mis l’accent sur une dimension particulière de l’usage des technologies » [Vedel, 1994 : 28]. L’analyse s’articule alors autour de quatre logiques : une logique technique et une logique sociale à travers la configuration sociotechnique, une logique d’offre et une logique d’usage. Les résultats de ce courant sont nombreux. Ils consistent d’une part à appréhender la dynamique de développement de l’innovation technique comme un rapport constant entre une logique d’offre et une logique sociale. D’autre part, ils apportent un éclairage approfondi sur les représentations des usagers qui guident les interactions entre logique d’utilisation et logique d’offre. Notons enfin que ces travaux font largement échos à ceux de l’approche de l’innovation que nous développerons dans la section suivante puisqu’ils utilisent le concept de configuration sociotechnique pour articuler les logiques technique et sociale.

De l’analyse des formes de l’appropriation à la sociopolitique des usages, qu’apportent ces travaux à notre compréhension de la prise en compte des usages ?
Concernant les problématiques centrées sur l’appropriation sociale des médias ou des technologies, ces travaux, qui s’articulent autour des significations d’usage, soulignent la dimension sociale des usages. Ici, l’appropriation est vue comme un processus de création de sens dans et par l’usage [Millerand, 1998]. Celui-ci ne peut donc être réduit à la seule manipulation d’un dispositif technique et doit être appréhendé dans son « épaisseur sociale » [ibid.. : 8]. Comme le souligne Jouët « la construction sociale de l’usage ne se réduit dès lors pas aux seules formes d’utilisation prescrites par la technique qui font certes partie de l’usage, mais s’étend aux multiples processus d’intermédiations qui se jouent pour lui donner sa qualité d’usage social » [2000 : 499]. Cette dimension sociale est également prégnante dans les travaux traitant des technologies domestiques et de l’évolution des modes de vie. L’accent est alors mis sur la place qu’occupent les pratiques dans les modes de vie. Dans cette perspective, les pratiques ou usages viennent s’intégrer à la vie quotidienne et en retour, la transforment. On retrouve donc l’idée d’une inscription sociale des usages et au-delà de modifications dans la quotidienneté par les usages. Enfin, les auteurs s’interrogeant sur la nature de l’usager (consommateur ou citoyen) ou plus encore ceux du courant de la socio-politique des usages montrent que l’explication des usages d’un dispositif technologique ne peut être réduite à un principe unique. En ce sens, l’étude des usages nécessite « de constamment prendre en compte les interrelations complexes entre outil et contexte, offre et utilisation, technique et social » [Vedel, 1994 : 32].
Aussi succincte soit-elle, cette analyse de la sociologie de l’appropriation offre un prisme de lecture non négligeable pour tout chercheur désireux d’inscrire dans ses travaux une perspective usage. En ce qui nous concerne, cela nous a permis de mettre en valeur l’inscription sociale des usages et de considérer les entremêlements nombreux entre outils, contexte, utilisations … En ce sens, cette approche nous semble au-delà primordiale dans la mesure où de nombreux auteurs spécialistes en sociologie des usages émettent des craintes quant à l’effet de mode que suscite cette notion à l’heure actuelle : « aujourd’hui, nous assistons à une véritable ‘mode des études d’usages’ tous azimuts, cette mode comportant le risque énorme de sombrer sous un déluge de rapports de recherches empiriques très pointues et extrêmement parcellaires et n’offrant plus de problématisations adéquates ou de cadre d’analyse s’appuyant véritablement sur les acquis des expériences passées » [Breton et Proulx, 2002 : 275 ; Jouët, 2000 : 511-513].
En définitive, trois conclusions peuvent être avancées :
L’approche de l’appropriation, malgré sa multiplicité et sa diversité, s’accorde pour analyser la formation des usages du point de vue des usagers : ici, l’usage est analysé sous l’angle de l’appropriation par des individus, acteurs humains.
L’usage acquiert dans cette approche une épaisseur sociale, totalement absente dans l’approche de la diffusion. Cependant, la technologie perd tout attrait dans ces analyses et est parfois ignorée.
1.1.3. L’approche de l’innovation
À l’instar de l’approche de l’appropriation, qui situe ses analyses sur le plan de la mise en œuvre d’innovations dans la vie sociale, l’approche de l’innovation concentre ces travaux sur la phase de conception des dispositifs techniques. Les problématiques développées dans cette approche, qualifiée également de sociologie de la traduction, interrogent ainsi les relations entre la science et la société, le succès des innovations et le réseau technico-économique qui se crée autour des innovations. Dans cette perspective, les auteurs du Centre de Sociologie de l’Innovation de l’Ecole des Mines de Paris proposent des guides d’action pour « une meilleure compréhension des mécanismes par lesquels les innovations réussissent ou échouent » [Akrich, Callon et Latour, 1988 : 6].
Afin de présenter avec le plus de clarté possible l’ensemble des développements qu’a connu ce courant de recherche, nous avons opté pour une présentation en trois temps : dans une première partie, nous nous attacherons à l’analyse de la notion d’innovation telle que la définissent les auteurs du CSI. Cette trame de fond nous permettra dans un second temps, à partir de la définition des réseaux technico-économiques qui en découle, de présenter les fondamentaux de l’école de la traduction. Enfin, nous nous attacherons plus spécifiquement à l’analyse des travaux d’Akrich [1989, 1990, 1993 et 1998] qui permettent véritablement d’ancrer l’approche de l’innovation dans la problématique plus générale des usages.
1.3.2.1. Les réseaux d’innovation
La définition de l’innovation retenue dans les différents travaux de Callon, Latour et Akrich marque une position radicalement différente de celle développée dans l’approche de la diffusion développée par Rogers. Ces auteurs mettent en évidence le nécessaire glissement d’une vision « standard » de l’innovation (telle qu’appuyée par Rogers), dans laquelle l’innovation décrit un modèle linéaire, à une vision « évolutionniste » qui se caractérise quant à elle par un modèle circulaire. Ce glissement est particulièrement développé dans l’article de Mustar et Callon [1992] qui s’attachent à définir la notion de réseaux technico-économiques.
Le modèle standard de la théorie néo-classique moderne définit une technique comme la combinaison productive d’une quantité de capital et de travail qui permet d’obtenir un niveau de production donné. Dans cette perspective, l’entreprise ne produit pas elle-même des technologies. Son rôle consiste à choisir parmi l’ensemble des techniques disponibles celle qui lui convient le mieux, c’est-à-dire en fonction des prix relatifs des facteurs de production. L’analyse économique standard repose donc sur une séparation stricte entre le domaine de la technologie (et du changement de technologie) et celui de l’économie. La création de technologies est œuvre des chercheurs et ingénieurs ; elle ne relève pas d’une rationalité économique. En revanche, le choix entre des techniques différentes est réalisé par l’entrepreneur et relève quant à elle de la rationalité économique.
« Dans la théorie économique standard, les techniques disponibles à chaque instant sont des données de l’environnement et constituent, donc, des contraintes externes dans les procédures d’optimisation qui guident les choix économiques des entrepreneurs. […] La seule question qui relève de l’analyse économique est, donc, celle du choix entre les techniques disponibles à chaque instant, choix qui est, évidemment déterminé par la disponibilité relative des différentes ressources engagées. » [Gaffard, 1990 : 48].
Dans ce contexte, l’innovation se définit comme le processus par lequel les entreprises adoptent et diffusent des techniques préétablies c’est-à-dire constituées auparavant à l’extérieur, par des chercheurs ou des ingénieurs par exemple. Ici, les relations entre la science et les marchés sont appréhendées dans une vision linéaire, semblable selon Mustar et Callon « à une course de relais, chaque coureur passant le bâton témoin à celui qui le précède : la recherche au développement, le développement à la production, la production à la commercialisation, et enfin au client, qui est passif dans ce schéma » [1992 :119].
Cette vision, malgré de nombreux enrichissements, connaît de fortes critiques. À partir d’études historiques et empiriques, un ensemble de travaux a renouvelé la pensée économique en matière d’analyse du changement technologique. Rosenberg [1982] a par exemple montré que la technologie n’arrivait que rarement dans sa forme définitive dans l’entreprise. Au contraire, l’entreprise modifie et adapte les techniques à son contexte et crée par la même de nouvelles connaissances technologiques. Dans la même lignée, Von Hippel [1988] s’est intéressé aux rôles des usagers finaux dans la création technologique : il a ainsi montré l’importance des « lead-users » et des fournisseurs dans la conception même des produits et des techniques de production.
Dans cette nouvelle perspective, la technologie n’est plus une variable exogène à la sphère économique et apparaît essentiellement comme le résultat de l’expérience accumulée par les entreprises, de processus d’apprentissage par la pratique ou l’usage [Gaffard, 1990]. Elle n’est donc plus condition préalable à l’innovation mais résultat et le processus d’innovation est alors ce processus par lequel la technologie est développée et créée. Les analyses qui conçoivent ainsi le processus d’innovation relèvent de la théorie évolutionniste [Nelson et Winter, 1982 ; Dosi, Teece et Winter, 1990 ; …] qui se distingue des approches standard par « l’utilisation des principes constitutifs de toute théorie de l’évolution qui privilégie l’interaction des mécanismes générateurs de diversité avec des mécanismes de sélection » [Cohendet, 1997 : 102]. Il s’agit, comme le soulignent Coriat et Weinstein, « d’affirmer tout à la fois le refus de l’hypothèse de maximisation et celle de rationalité substantive » [1995 : 114]. L’approche évolutionniste s’appuie ainsi sur les principes suivants [Nelson et Winter, 1982 ; Coriat et Weinstein, 1995 ; Cohendet, 1997] :
Les routines (modèles d’interaction qui constituent des solutions efficaces à des problèmes particuliers) comme principe de permanence et d’hérédité ;
Des comportements de « searching » des firmes (mise en œuvre des processus d’innovation qui sont à la base des mécanismes générateurs de diversité) comme principe de variation ou de mutation ;
Des mécanismes de « sélection » (agissant sur les routines et les mutations « searching ») comme filtres de l’évolution.
Pour Mustar et Callon, cette nouvelle théorie du changement technique peut être synthétisée ainsi : « comme les organismes vivants, les innovations et les entreprises connaissent des processus de variation et de sélection. Les recherches s’efforcent alors de montrer les liens étroits existant entre le processus d’innovation et la structure institutionnelle dans laquelle elle a lieu » [1992 : 118]. En d’autres termes, comprendre la technologie implique de prendre en considération les cadres organisationnels dans lesquelles elle se développe et l’histoire dont elle est imprégnée.
Cette vision privilégie ainsi un nouveau modèle de l’innovation dit de liaison en chaîne [Kline et Rosenberg, 1986] qui réfute le principe de séquentialité et met l’accent sur les phénomènes d’interaction et de rétroaction entre les différentes activités impliquées dans le processus d’innovation, mais aussi entre l’entreprise innovante et son environnement. C’est cette définition de l’innovation que retiennent les auteurs du CSI, celle d’une innovation en boucles, d’un processus interactif complexe.
En revanche, ces auteurs rejettent l’idée selon laquelle la firme serait l’acteur central du jeu de l’innovation. Mustar et Callon, dans une critique des modèles linéaires et chaînés de l’innovation, notent à ce sujet : « ces deux modèles proposent des visions très différentes de l’innovation mais ont pour point commun de rester centrés sur l’entreprise. Ils sont tous deux focalisés sur l’analyse interne de l’entreprise, mêmes s’ils incorporent des éléments extérieurs, tels qu’en amont la R&D publique, ou en aval le marché » [op. cit. : 119]. Au contraire, les études menées ces vingt dernières années montrent, selon ces auteurs, que l’innovation fait intervenir, à côté des entreprises, d’autres acteurs tels les usagers, consommateurs, laboratoires de recherche, pouvoirs publics, financiers … Cette montée en puissance d’acteurs participant aux processus d’innovation doit selon Mustar et Callon [ibid..] être prise en considération dans la définition des réseaux d’innovation. Ces derniers ne sont en effet pas des agents extérieurs au phénomène d’innovation ; ils en sont des acteurs à part entière. Ainsi, l’analyse du processus d’innovation doit intégrer celle plus générale du réseau de collaboration qui se noue atour de celle-ci : alliances inter-firmes, collaboration entre recherche publique et industrie, rôle des pouvoirs publics, des lead-users ... Cette analyse, que Mustar et Callon nomment analyse des réseaux technico-économiques, ne doit en revanche pas « se limiter aux seules transactions commerciales, aux seules procédures hiérarchiques, aux seuls accords formels de coopération ou encore à des variables plus sociologiques comme la confiance ou la réputation. Elle fait circuler entre les protagonistes, des textes, des artefacts techniques, ainsi que des compétences incorporées dans des êtres humains » [ibid.. : 126]. Au final, les réseaux technico-économiques peuvent être schématisés comme l’articulation entre trois pôles principaux qui concourent aux processus d’innovation [Mustar et Callon, 1992 ; Callon, Larédo et Mustar, 1995] :
Le pôle scientifique qui crée des connaissances (essentiellement sous la forme d’articles) et assure la formation des personnels. Il s’agit des laboratoires de recherche publics et privés, des universités …
Le pôle technique qui élabore des artefacts tels que projets pilotes, prototypes, modèles de simulation mais aussi des normes, brevets … Ce pôle comprend les services d’études et de développement des entreprises, les centres techniques de recherche collective …
Le pôle marché qui organise l’expression de demandes de biens ou de services et qui comprend essentiellement les réseaux de distribution ou de commercialisation, les clients, usagers, acheteurs qui contribuent à exprimer une demande. Ce pôle correspond donc à l’univers des utilisateurs ou des usagers qui font l’état de la demande.
À côté de ces trois pôles principaux, deux autres regroupent les activités d’intermédiation ou de support :
Le pôle transfert qui met en relation la science et la technologie,
Le pôle développement qui régit l’interface entre la technologie et le marché : il s’agit ici des activités de production et de distribution essentiellement prises en charge par les entreprises.
Le réseau technico-économique ou réseau Science Technique Marché peut être schématisé comme suit :


Figure 1 : Le réseau Science Technique Marché [Callon et al., 1995]
Au final, l’innovation, telle que définie par les auteurs du CSI, se comprend comme un processus en boucles faisant intervenir au cours de sa conception une multitude d’acteurs. Dans cette perspective, l’analyse du processus d’innovation ne peut donc faire l’économie de la description du réseau technico-économique qui l’entoure.
« Recourir au concept de réseau protège du danger de simplification qui menace toute analyse de l’innovation technologique : l’idée ou le projet peut naître en tout point ; sa réalisation passe par toute une série d’interactions qui modifient l’agencement du réseau, font naître de nouvelles compétences et de nouvelles connexions. En même temps que l’innovation prend progressivement corps, le réseau se déforme puis se stabilise peu à peu : la dynamique du réseau technico-économique […] coïncide avec elle du processus d’innovation » [Callon et al., ibid.. : 417].
La notion de réseaux ouvre alors la voie à de nouvelles analyses en termes de changements techniques et ce grâce à deux transformations majeures dans la conception même des sociétés industrielles [Callon, 1992] :
La première concerne l’unité de référence retenue. Il ne s’agit plus de la firme, du centre de recherche, ou encore du consommateur mais du système de relations coordonnées entre ces différents acteurs.
La seconde porte sur la pertinence de la description séparée des systèmes d’acteurs et des techniques qu’ils utilisent ou qu’ils échangent. Cette séparation devient en effet de plus en plus difficile tant les stratégies et comportements des acteurs, mais aussi le fonctionnement et les équilibres des institutions dans lesquelles ils entrent et qu’ils contribuent à transformer sont indissociables du contenu et des caractéristiques des technologies qu’ils élaborent et mettent en œuvre. Callon fait ainsi référence à un « bizarre complexe sociotechnique dans lequel acteurs humains et non humains interagissent en permanence » [op. cit. : 54].
Ces concepts d’innovation et de réseaux technico-économiques sont sous-jacents à l’ensemble des développements du courant de la sociologie de la traduction. Ils permettent d’appréhender le contexte dans lequel est construite une seconde problématique au sein du CSI : comprendre le succès ou l’échec des innovations ? C’est ce que nous allons à présent analyser au travers du modèle de la traduction qui combine plusieurs caractéristiques.

En concentrant ses études sur le moment de la conception des innovations, l’approche du CSI propose une analyse approfondie de la technologie.
Le modèle de l’innovation retenu s’appuie sur une critique des modèles classiques de la technologie : une place prégnante est accordée aux réseaux de collaboration entourant l’innovation, les réseaux technico-économiques.
L’innovation ne peut plus être pensée dans une perspective linéaire : elle est le fruit d’un processus en boucles, co-construit avec son environnement.
1.3.2.2. Le modèle de la traduction 
Ici, nous avons choisi de présenter le modèle de la traduction en deux temps : dans un premier temps, nous développerons les principes sous-jacents puis, dans un second temps, nous développerons les principales étapes autour desquelles ce modèle s’articule.
Les principes de base
Callon, Latour et Akrich [op. cit.] accordent une place centrale à l’analyse du succès ou des échecs des innovations. Il s’agit pour ces auteurs de comprendre pourquoi certaines innovations sont adoptées par les usagers et comment des innovateurs ont réussi à en assurer le succès.
Selon eux, il existe deux manières différentes d’effectuer ce type d’analyse : la première consiste à insister sur les qualités intrinsèques de l’innovation soit encore sur sa capacité à susciter l’adhésion de nombreux alliés. Ce premier type d’analyse, s’inscrivant dans le modèle de la diffusion décrit précédemment, stipule que l’innovation est un succès si elle se répand d’elle-même « par contagion » grâce à ses propriétés intrinsèques. Il s’appuie sur une vision linéaire de l’innovation et se concentre exclusivement sur ses aspects technologiques. Le second type d’analyse, plus proche de la réalité selon les auteurs du CSI, stipule a contrario que l’innovation est le fruit d’une activité collective et s’attache, en ce sens, à l’analyse des processus d’interactions, de concertation, d’adaptation propres aux innovations. Ici, la définition de l’innovation retenue est celle d’un processus en boucles tel qu’explicité précédemment, qui se déploie au sein d’un réseau technico-économique.
Le point de départ du modèle de la traduction se situe ainsi dans le rejet des perspectives déterministes de la technologie et plus particulièrement dans la définition de l’innovation qui y est retenue : il ne s’agit pas de faire de l’histoire des techniques en analysant des « boîtes noires » mais de comprendre l’innovation « à chaud », « d’analyser les faits et les machines dans le courant même de leur fabrication » [Latour, 1989 : 25].
« Aussi intéressante que puisse être l’histoire des techniques, sa faiblesse essentielle vient de cette asymétrie entre, d’une part, un passé qui paraît toujours explicable à force d’efficacité, de rentabilité et de nécessité, et, d’autre part, un présent qui demeure énigmatique. Pour comprendre cette difficulté il convient de créer des outils d’analyse qui permettent de suivre l’objet technique avant qu’il ne devienne indispensable, c’est-à-dire au moment où, encore à l’état de projet, il se bat pour convaincre d’autres groupes, d’autres services, d’autres clients qu’il est efficace, rentable et nécessaire » [Callon et Latour, 1986 : 15].
Callon, Latour et Akrich proposent ainsi une nouvelle manière d’appréhender le processus d’innovation. Dans cette perspective, l’objet technique devient centre d’analyse dès que née l’idée du projet c’est-à-dire avant toute formalisation physique. En ce sens, il ne s’agit pas de comprendre le succès de l’innovation une fois celle-ci commercialisée mais au contraire de considérer l’objet technique, encore sous la forme d’un projet, comme une possibilité parmi d’autres et comme sujet de controverses [Callon et Latour, ibid..]. Pour ce faire, il convient d’éviter toute forme d’analyse qui expliquerait après coup le résultat d’une innovation à partir de variables telles que l’absence de marché, des difficultés techniques ou encore des coûts rédhibitoires. Au contraire, les auteurs du CSI stipulent que « la règle est de rétablir, sans prendre parti, les points de vue et les projets des uns et des autres, […]. En un mot faire preuve de suffisamment de tolérance et d’agnosticisme pour que les décisions, […], ne changent pas de signes dans le récit qui est fait […]. » [Akrich, Callon et Latour, 1988 a : 7]. Une attention toute particulière est ainsi portée aux controverses et multiples décisions prises pendant le processus d’innovation qui mettent en forme l’objet technique. L’exemple de l’ordinateur Eagle décrit par Kidder en 1982 et repris par Akrich, Callon et Latour [ibid..] montre véritablement l’importance des décisions (tant quantitatives que qualitatives) au cours du processus d’innovation. Dans cet exemple, tout part de la volonté de l’entreprise Data General de déménager ces équipes de recherche en Caroline du Nord pour bénéficier d’une fiscalité plus favorable. Un ingénieur, West, ne souhaitant pas partir, arrive à persuader ses supérieurs de rester sur place avec son équipe pour travailler sur un prototype de micro-ordinateurs. Cette équipe se place alors en concurrence vis-à-vis d’un autre projet de l’entreprise qui retient fortement l’attention de la direction générale et par la même la majorité des investissements. Or, contre toute attente, cette équipe plus modeste, en quasi-clandestinité, crée deux ans plus tard un produit commercialisé qui connaîtra un véritable succès sur le marché. Akrich, Callon et Latour décrivent dans cet exemple comment des décisions prises dans une incertitude omniprésente ont permis à une équipe de développer une innovation à partir de prototypes plusieurs fois remaniés. Ils insistent également sur l’importance de décisions parfois vécues comme secondaires dans le processus en construction et qui se trouvent en fin de projet avoir été déterminantes pour le développement de l’outil. Au final, les auteurs du CSI montrent que, dans
Au-delà, les auteurs soulignent la forte incertitude dans laquelle ces décisions sont prises, ce qui explique que l’on ne puisse jamais garantir de l’issue d’un projet d’innovation. L’instabilité et l’imprévisibilité qui entourent les innovations rendent impossible la maîtrise complète de leurs processus de conception. Cette incertitude forte caractérise bien évidemment (i) les marchés mais aussi (ii) les techniques.
concernant les marchés, l’exemple du cuir artificiel Porvair permet d’appréhender l’incertitude qui règne dans les processus d’innovation. Ainsi, à partir d’une technologie fondée sur du PVC microporeux, des ingénieurs ont songé à remplacer le cuir dans le marché des chaussures par cette technologie offrant les mêmes qualités (cette décision se justifiant du fait de prévisions pessimistes sur le marché du cuir naturel). De multiples analyses sur les cycles de prix, de production et de demande du cuir montraient alors que cette innovation devait être précisément lancée en 1972, date à laquelle le prix du cuir naturel atteindrait un niveau maximum. Ces analyses se justifiaient d’autant que la mise sur le marché du Porvair nécessitait de lourds investissements et donc d’inonder totalement le marché pour réaliser des économies d’échelle. Tout se passe alors comme les prévisions l’ont anticipé et le Porvair connaît un succès grandissant les deux premières années de mise sur le marché. Malheureusement, l’année 1974 est marquée par un choc pétrolier entraînant une hausse du prix des aliments pour le bétail et par voie de conséquence un abattage massif offrant, de nouveau et contre toute attente, du cuir naturel à moindre coût. Le Porvair n’a pas eu le temps de se construire un véritable marché et très rapidement les usines « construites à coup de millions » ferment leurs portent.
concernant les techniques, l’exemple du véhicule électrique montre au début des années 1970 l’incertitude technique entourant ce projet. Ainsi, les avis des experts concernant la création de générateurs peu coûteux et performants étaient contradictoires. Pour certains, la mise au point de nouveaux catalyseurs était à portée de mains tandis que d’autres dénonçaient un résultat peu sûr et qui nécessitaient de revenir à la physique du solide. Là encore, l’innovation était entourée d’incertitudes qui ne laissaient que peu de place à des procédures ou critères indiscutables pour prendre les bonnes décisions.

Incertitudes et décisions multiples justifient ainsi d’étudier l’objet technique avant que la boîte ne se ferme. Elles renforcent également le rejet des analyses classiques qui justifient la plus ou moins grande vitesse de diffusion des innovations à partir des qualités intrinsèques de celles-ci. Au contraire, ces résultats montrent que l’adoption de l’innovation passe par de multiples décisions qui dépendent fortement du contexte dans lequel elle est développée. En d’autres termes, « la rentabilité, l’efficacité et la nécessité sont des conséquences du développement d’un objet technique et non pas des causes de ce développement. […] Il ne sert donc à rien de considérer un projet technique par ses qualités intrinsèques, car la plupart de ses qualités futures sont extrinsèques et vont lui être données par d’autres » [Callon et Latour, op. cit. : 15].
En définitive, les auteurs du CSI adhèrent aux trois principes suivants [Callon, 1986] :
Principe d’agnosticisme : principe selon lequel le chercheur ne doit pas porter a priori de jugements sur la façon dont les acteurs analysent la société qui les entoure. Ici, l’observateur ne doit ni privilégier des points de vue, ni censurer des interprétations.
Principe de symétrie généralisée : l’observateur ne doit utiliser qu’un seul répertoire pour décrire les points de vue en présence, qu’il s’agisse d’une description des enjeux scientifiques ou techniques ou de la constitution de la société.
Principe de la libre association : il ne faut pas séparer en deux catégories la nature et la société : les auteurs du CSI acceptent en effet que les entités non humaines participent au même titre que les humains à la constitution mutuelle technique/société. De plus, ce principe accepte « de considérer que l’inventaire des catégories utilisées, des entités mobilisées et des relations dans lesquelles elles entrent, est en permanence discuté par les acteurs » [Callon, 1986 : 177].
L’ensemble de ces principes invitent l’observateur à traiter sans distinction les innovations, qu’elles se concrétisent ou non par un succès et à utiliser un répertoire identique, définit au préalable, pour parler aussi bien des faits de la nature que des faits scientifiques. Ils débouchent sur l’identification de quatre étapes pour décrire la succession d’épreuves et de transformations que subit un énoncé pour aboutir à une innovation. Ce sont ces quatre étapes, nommées étapes de la traduction, que nous allons à présent analyser.
Les quatre étapes de la traduction
Les auteurs du CSI proposent ainsi de comprendre les innovations à partir de quatre grandes étapes, qui, « dans la réalité, peuvent se chevaucher, mais qui constituent les différents moments d’un processus général auquel nous donnons le nom de traduction » [Callon, 1986 : 180]. Ces étapes sont les suivantes :
La problématisation ou comment se rendre indispensable
Comme son nom l’indique, la problématisation consiste en la formulation de problèmes par les individus qui initient un projet d’innovation. Elle ne peut toutefois être réduite à cette simple articulation des idées de chercheurs, en l’écriture des problématiques de leur objet de recherche. En effet, la problématisation se définit, selon les auteurs du CSI, comme un phénomène plus large et qui consiste en l’identification d’un ensemble d’acteurs « dont les chercheurs s’attachent à démontrer qu’ils doivent, pour atteindre les objectifs ou suivre les inclinaisons qui sont les leurs, passer obligatoirement par le programme de recherche proposé » [ibid.. : 181].
Cette définition révèle ainsi deux réalités complémentaires : la problématisation, entendue ici comme la première étape de la traduction, consiste d’une part en « l’entre-définition » des acteurs et d’autre part en la définition de points de passage obligés.
L’entre-définition des acteurs se comprend comme la mise en évidence d’acteurs nécessairement concernés par les questions formulées par les individus qui initient le projet. Par exemple, dans le cas présenté par Callon [1986] sur la problématique de la fixation des larves de coquilles Saint-Jacques dans la baie de Saint-Brieuc, trois types d’acteurs sont identifiés : les marins-pêcheurs conscients de l’intérêt économique à long terme de penser au repeuplement en coquilles de la baie ; les collègues scientifiques soucieux d’accroître leurs connaissances dans un domaine totalement inconnus jusqu’alors ; les coquilles Saint-Jacques elles-mêmes qui posent la question de leur fixation et de l’acceptation d’une protection qui leur permettra de proliférer et de se perpétuer. Dans cet exemple, la question de la fixation des larves de coquilles induit d’établir de façon hypothétique l’identité et les liens d’une série d’acteurs. Il convient ici de noter que ces acteurs ne sont pas nécessairement des acteurs humains, en référence au principe de libre association décrit précédemment.
La problématisation consiste, dans un second temps, en la définition de points de passage obligé. En effet, outre la définition des acteurs qu’elle propose, cette étape possède des propriétés dynamiques : elle indique les déplacements et détours à consentir et pour cela les alliances à sceller. Il s’agit alors de décrire dans cette étape le système d’alliances, que Callon [1986] préfère nommer d’associations, entre des entités dont la problématisation définit l’identité ainsi que les problèmes entre elles et ce qu’elles veulent. Dans le cas de l’exemple décrit précédemment, il s’agit pour les trois chercheurs de situer leur objet de recherche, la fixation des larves de coquilles Saint-Jacques, comme un point de passage obligé pour les trois entités définies précédemment. Ainsi, les marins-pêcheurs ne peuvent uniquement penser en la maximisation de leur profit à court terme et doivent songer à assurer leur profit à long terme. Les coquilles sont face aux problèmes de leurs prédateurs et doivent absolument assurer leur renouvellement. Enfin, les scientifiques ont constaté une absence totale de connaissances sur les coquilles de Saint-Brieuc qu’ils souhaitent corriger. Ces trois cas se rejoignent ainsi et s’accordent sur la nécessité de faire avancer les connaissances et de repeupler la baie au profit des marins-pêcheurs : un réseau de problèmes et d’entités se construit au sein duquel un acteur se rend indispensable, le groupe des trois chercheurs qui initient le projet.

Les dispositifs d’intéressement ou comment sceller les alliances
L’intéressement se définit comme l’ensemble des actions par lesquelles une entité s’efforce d’imposer et de stabiliser l’identité des autres acteurs qu’elle a défini durant l’étape de problématisation [Callon, ibid..]. Il s’agit plus spécifiquement d’établir « une relation élémentaire qui commence à mettre en forme et à consolider le lien social » [Callon, ibid.. : 186] entre des acteurs dont les buts et les inclinations sont le plus souvent en compétition avec d’autres. L’objectif consiste donc à isoler les entités d’autres qui pourraient tendre à lui donner une définition différente et ce pour assurer le couplage entre les différents acteurs et la problématique de recherche. Ici, les entités intéressées voient leur identité et leur géométrie se modifier tout au long du processus d’intéressement. Dans l’exemple de la domestication des coquilles, la filière et ses collecteurs (mécanismes qui fixent les larves de coquilles et les protègent des agressions de l’environnement extérieur –prédateurs, courants-) constituent un archétype de dispositif d’intéressement. Les larves sont extraites de leur contexte et dissociées de tous les acteurs qui les menacent. En outre, ce dispositif prolonge et matérialise les hypothèses faites sur l’identité et le comportement des entités (dans le cas précédent, celui des coquilles) : s’il réussit, il valide l’étape de problématisation et inversement, il peut la réfuter. On voit ainsi que l’intéressement s’appuie sur une certaine interprétation de ce que sont et veulent les acteurs à enrôler et auxquels il faut s’associer. Au final, ce dispositif peut se définir de la façon suivante :
« Le dispositif d’intéressement fixe les entités à enrôler, tout en interrompant d’éventuelles associations concurrentes et en construisant un système d’alliances. Des structures sociales prennent forme, composées à la fois d’entités naturelles et humaines » [Callon, ibid.. : 189].

L’enrôlement : art de définir et coordonner les rôles
L’étape précédente s’était fixée pour objectif d’amorcer un lien social entre des entités, de construire un dispositif de capture en s’appuyant sur un argumentaire le plus convaincant possible. Le succès n’est ici pas garanti, et il n’en résulte pas nécessairement une alliance, un enrôlement. L’enjeu consiste alors à transformer une question en une série d’énoncés considérés comme certains, d’attribuer une définition et un rôle à chaque acteur qui l’accepte. En d’autres termes, il s’agit d’assurer la réussite de l’intéressement. Dans cette perspective, « décrire l’enrôlement c’est décrire l’ensemble des négociations multilatérales, des coups de force ou des ruses qui accompagnent l’intéressement et lui permettent d’aboutir » [Callon, ibid.. : 190].

La mobilisation des alliés ou la question de la représentativité des porte-paroles
Il s’agit de savoir qui parle au nom de qui et qui représente qui, en d’autres termes, de choisir les bons représentants, qui permettront d’appuyer les discours des porte-paroles, eux-mêmes stratégiquement choisis. Le processus d’innovation décrit ainsi une longue chaîne d’intermédiaires aboutissant sur la désignation d’acteurs susceptibles de parler et de « vendre » l’objectif aux noms des diverses entités. Ces chaînes d’intermédiaires peuvent être décrites comme la mobilisation progressive d’acteurs qui s’allient et font masse pour rendre crédibles et indiscutables les propositions qui fondent le projet commun. Le cas de la domestication des coquilles illustre parfaitement cette étape de mobilisation. Au départ, les chercheurs sont confrontés à trois entités peu mobiles : les coquilles Saint-Jacques, des marins-pêcheurs et des spécialistes dispersés. Par la désignation de porte-paroles successifs et la mise en place des équivalences qu’ils établissent, tous ces acteurs ont été déplacés et rassemblés au même moment, en un même lieu c’est-à-dire in fine à Brest, où trois chercheurs disent ce que sont et ce que veulent ces différentes entités. L’enrôlement s’est dans ce cas transformé en soutien actif. A une étape de problématisation, qui définissait des hypothèses sur l’identité, les objectifs et relations de différents acteurs, s’est substitué un réseau de liens contraignants. Cependant, comme le souligne Callon [ibid..], mobilisation et consensus peuvent être contestés à tout moment, démontrant la fragilité du processus de traduction : c’est ainsi qu’il montre l’issue tragique du cas de la domestication des coquilles Saint-Jacques. Après une année de fixation des larves, l’expérience tourne à l’échec. Les larves ne se fixent plus sur les collecteurs, l’intéressement se révèle inefficace et peu à peu les marins-pêcheurs désavouent leur porte-parole et leurs calculs à long terme… ceci amène les trois chercheurs à transformer le dispositif d’intéressement pour les coquilles et leurs larves, à entreprendre une vaste campagne de formation et d’information de la population des marins-pêcheurs, en d’autres termes à mettre en place d’autres intermédiaires et d’autres représentants. Dans ce cas, la traduction est devenue trahison [Callon, 1986].

Au final, cette illustration puissante que nous livre Callon à travers la domestication des coquilles Saint-Jacques en baie de Saint-Brieuc permet de remédier aux lacunes des analyses détaillées des contenus scientifiques et techniques. Elle réhabilite le rôle des acteurs humains et non humains dans les processus d’innovation et se démarque ainsi des analyses de l’approche de la diffusion.
Le tableau ci-dessous offre une vision synthétique du modèle de la traduction et met en évidence les divergences fondamentales entre ce modèle et celui de la diffusion :
Modèle de la diffusionModèle de la traductionExplication ex postSuivi « à chaud »L’objet technique a des qualités intrinsèquesQualités extrinsèquesL’objet technique se diffuse à travers une sociétéL’objet technique se transforme en fonction des traductionsL’objet technique est une boîte noireIl est le résultat d’une négociationParcours linéaire par distinction de phasesParcours tourbillonnaire sans distinction de phasesEvolution par mutation et sélectionPar traduction sociotechniqueRésistible poussée techniqueRésistible combinaison sociotechniqueL’objet se diffuse dans un cadre temporelLe cadre temporel est la conséquence des associationsCertains sujets sont actifs et ouverts, d’autres pas, beaucoup ne « voient pas leurs intérêts »Tous les sujets sont également actifs, triant selon leurs intérêtsIl faut déterminer les coupables et les responsablesTous les acteurs sont également innocents et responsablesOn peut distinguer les objets et leur positionLes deux sont indistinguablesOn peut distinguer le social et le technogrammeLes deux sont indissociablesAnalyse asymétrique des blocagesAnalyse symétrique de la chaîne de traductionDivision de la technique et de la politiqueIndivision du machiavélisme politique et techniqueCertitudes sur l’état des forces en présence définies par des expertsIncertitude sur l’état des forces définie par des chercheursInnover c’est appliquer à partir de certitudesInnover c’est expérimenterTableau 1 : Synthèse du modèle de la traduction [source : Callon et Latour, op. cit.].
Les apports du modèle de la traduction se situent essentiellement dans leur appréhension du processus d’innovation. En plus d’ouvrir la boîte noire, les auteurs du CSI proposent de véritables guides pour comprendre les mécanismes qui conduisent au succès ou à l’échec des dispositifs techniques. Ils soulignent tout particulièrement la dimension collective des innovations et l’importance des phénomènes d’intéressement et de traduction. Leurs apports à la problématique des usages se situent ainsi dans la prise en compte des usagers dès la phase de conception d’une innovation. Concepteurs, utilisateurs, porte-paroles participent en effet tour à tour à la construction sociale de l’innovation, dans une sorte d’interaction permanente.

Le CSI présente une méthode originale pour appréhender les processus d’innovation : ils proposent en effet de considérer l’innovation comme un compromis sociotechnique c’est-à-dire comme une succession de décision prises dans un contexte d’incertitude et d’instabilité à analyser avant s fermeture.
Dans cette perspective, quatre étapes permettent de décrire le développement de l’innovation : la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés.
Ces quatre étapes ne doivent pas être pensées linéairement : elles se chevauchent et se répète dans un processus dynamique fait de boucles itératives.

Pour autant, il semble nécessaire de souligner que ces analyses se sont majoritairement centrées sur l’étude du travail des concepteurs. Ainsi, même si elles permettent de rendre compte de la prise en charge par le dispositif des actions futures des usagers, elles ne permettent pas d’en restituer les pratiques effectives [Millerand, 1998]. Le statut de l’usager s’avère ambigu [Vedel, 1994] dans la mesure où, même s’ils sont reconnus comme des participants à part entière de l’innovation, les études de cas mettent rarement en évidence leur véritable action. Face à ces critiques, les travaux de Madeleine Akrich constituent un prolongement essentiel du modèle de la traduction car ils permettent d’éclairer le rôle des usagers dans la conception des dispositifs techniques et donc d’ancrer la sociologie de l’innovation dans les courants traitant de la problématique des usages.
1.3.2.3. Usages et traduction : les apports des travaux de Madeleine Akrich
Les apports d’Akrich aux problématiques développées dans le cadre du CSI sont nombreux et apparaissent comme des éléments permettant véritablement d’intégrer la sociologie de l’innovation au sein des approches traitant des usages. L’auteur se concentre en effet sur l’étude du rôle des usagers pendant le processus d’innovation. Elle adhère à l’idée d’une définition conjointe des objets techniques et des dispositifs sociaux, déjà présente en sociologie des techniques, mais constate le manque de considération de ces approches pour l’adoption des technologies par les utilisateurs finaux.
Dans cette perspective, Akrich [1990] propose de suivre, tout au long de la conception, l’utilisateur tel qu’il est représenté, inscrit, traduit dans les choix qui sont effectués. Pour ce faire, elle s’appuie sur l’histoire des réseaux de vidéocommunications de 1ère génération, plus particulièrement sur le Coffret d’Abonné (CA) à ces réseaux, et s’intéresse au problème rencontré par les premiers usagers de ce système à savoir l’incompatibilité entre usages du CA et d’un magnétoscope. Cette étude détaillée du processus de conception du CA permet à Akrich d’apporter un regard nouveau sur l’inscription des usagers dans le processus de conception. Ses apports se situent à deux niveaux :
D’une part, dans la démonstration de l’interrelation entre choix techniques, attribution des compétences et définition des utilisateurs : ici, les problèmes d’incompatibilité avec le magnétoscope ne sont a posteriori le fait que d’une série de choix qui in fine exclue l’usage combiné avec un CA. C’est parce qu’il a été nécessaire de prendre certaines décisions techniques, engageant une représentation de ce que sont, veulent et peuvent les utilisateurs supposés du dispositif qu’un cadre limitatif des différents scénarios possibles d’interaction s’est construit, cadre excluant presque fortuitement le magnétoscope.
D’autre part, dans la définition d’un vocabulaire permettant d’appréhender les problèmes de convergence entre la constitution de l’acteur et celle de l’objet. Akrich constate en effet, à travers l’exemple du CA, l’enjeu que représente la constitution des acteurs dans la conception de dispositif technique : « bien souvent, le succès ou l’échec d’innovation tient à la capacité des dispositifs à gérer des relations différenciées avec des utilisateurs dont les compétences et les désirs sont susceptibles d’une grande variabilité […] mais se pose alors, pour l’analyste, la question de savoir comment décrire la mise en œuvre, par le dispositif technique, d’une possible pluralité d’usage, sans l’écraser dès le départ sous un seul terme agrégateur, qu’il s’agisse de celui d’utilisateur, d’usager ou de tout autre vocable. » [ibid.. : 99-100]. Ainsi, la notion d’acteur révèle deux problèmes : le premier tient au fait qu’un acteur est susceptible d’appartenir à plusieurs réseaux distincts comprenant des objets spécifiques. L’autre est lié à l’idée qu’au travers d’un unique dispositif technique, il est possible de construire un ensemble de sous-réseaux différenciés tant du point de vue des éléments et acteurs associés que de celui de la forme de leur relation. Dans cette perspective, Akrich propose de recourir à trois notions :
La position qui désigne le statut d’un acteur pris dans un ensemble de relations régies par un unique principe d’équivalence. A chaque position correspond alors un réseau particulier qui associe des dispositifs techniques, humains, organisationnels et qui suppose une certaine économie des échanges entre les différents points du réseau.
L’actant qui correspond à l’entité désignée par tel ou tel dispositif technique, en vue de l’action duquel il a été conçu.
L’acteur qui désigne la personne à qui l’action est imputée.
Elle montre ainsi, dans l’exemple du CA, que c’est « la définition que les concepteurs donnent des actants et leur obsession à assurer par des moyens techniques une superposition sans faille entre actant et position qui jouent contre l’intégration du magnétoscope dans l’environnement de l’usager tel qu’il est défini par le CA » [ibid., 105].
Par la suite, Akrich [1998] s’est attachée à l’étude de cas où les usagers jouaient un rôle actif dans le processus d’innovation c’est-à-dire dans la définition des fonctionnalités du dispositif technique et des choix qui déterminent sa physionomie définitive. Dans un premier temps, elle s’est appliquée à démontrer que l’intervention directe des usagers sur des dispositifs déjà stabilisés revêtait quatre formes :
Le déplacement : l’utilisateur modifie les usages prévus d’un dispositif, sans changement de ce en vue de quoi il a été conçu, et sans introduire de modifications majeures dans le dispositif. Il s’agit par exemple d’un sèche-cheveux employé pour attiser des braises ou d’un biberon servant de verre doseur.
L’adaptation : l’utilisateur introduit quelques modifications dans le dispositif pour l’ajuster à son usage et à son environnement mais sans en altérer sa fonction première. L’exemple donné par Akrich est celui du transfert entre le Nicaragua et la Suède d’une machine servant initialement à déchiqueter les résidus de bois et à les transformer en briquettes pour le chauffage permettant par la suite la récupération de tiges de coton et la confection de briquettes, combustible pour la cuisine.
L’extension : elle consiste en l’ajout de fonctionnalités à un dispositif technique en conservant sa forme et ses usages de départ. Par exemple, l’ajout de filets à l’arrière des poussettes ou encore le bricolage de logiciels informatiques en principe fermés pour y ajouter des fonctions utiles dans une organisation.
Le détournement : dans cette forme d’intervention, l’utilisateur détourne totalement l’usage prévu initialement par le concepteur et annihile de fait toute possibilité de retour à cet usage de départ. Il peut s’agir de la récupération d’objets usagés ou encore, dans le cas des travaux pratiques à l’école, de la création de tableaux en relief à l’aide de pâtes alimentaires.
Puis, dans le prolongement des travaux de Von Hippel [1976], Akrich s’est intéressée aux usagers eux-mêmes acteurs de l’innovation. Elle montre par exemple dans le secteur de l’escalade, comment des utilisateurs en sont venus à construire des dispositifs techniques spécifiques à leur sport devenant par la même des innovateurs-utilisateurs et les raisons qui expliquent ces mutations : « dans un tel contexte, un outsider a bien peu de chances de s’imposer, car il lui faudrait maîtriser intellectuellement la technique de l’escalade et comprendre les articulations entre les pratiques individuelles et la définition de la discipline et de ses pratiquants » [ibid.. : 89]. Dans cette perspective, Akrich montre que la distinction entre concepteurs et utilisateurs n’est pas si nette et que les innovations sont bien souvent le fruit d’allers et retours entre ceux-ci. Elle précise cependant que cette proximité est propre à des domaines spécifiques, caractérisée par des facteurs variés : forte technicité (incorporation forte des savoirs techniques), nouveauté, rapidité d’évolution, spécificité de la demande et incapacité du marché à la prendre en compte.

La lecture des travaux d’Akrich permet donc de « ré-introduire » l’usager dans le modèle de la traduction. En effet, même si la sociologie de l’innovation soulignait l’importance des utilisateurs dans la conception d’un dispositif technique, elle n’y prêtait pas d’analyse spécifique. C’est ce constat qui a conduit Akrich à définir avec précision l’intervention des usagers dès la phase de conception, rétablissant par là même une symétrie entre l’objet et l’acteur. A ce titre, en accord avec Proulx [2005], il est possible d’intégrer ce type d’analyse à la problématique plus générale des usages.

Pour conclure, nous considérons que les apports du modèle de la traduction à notre problématique de conception d’une solution TIC dans une démarche usage se situent à deux niveaux qui se renforcent mutuellement :
d’une part, elle souligne la nécessaire prise en compte des usagers dès la phase de conception d’une innovation. Concepteurs et utilisateurs participent en effet tour à tour à la construction sociale de l’innovation, dans une sorte d’interaction permanente. La construction de l'objet technique sera réalisée progressivement dans la mesure où les groupes d'usagers, munis de différents usages dans différents contextes, appliqueront successivement des transformations à l'objet. Les utilisateurs interviennent ainsi dans la construction même de l'outil et modifient, via les concepteurs, le design et le contenu des objets et des interfaces. Dans cette perspective, l'usage n'est donc pas postérieur à l'offre mais il s’appréhende et se construit dans l'offre.
D’autre part, l’approche de l’innovation nous semble prégnante pour la place centrale qu’elle accorde au réseau sociotechnique dans lequel l’innovation, fruit d'une élaboration collective et d'un intéressement de plus en plus large, se construit. Cette approche accorde alors une attention toute particulière aux porte-paroles dans la mise en forme du projet et la constitution d’un marché favorable à la diffusion et à l’acceptation de l’innovation. Dans cette perspective, une innovation réussie est celle qui a su construire le réseau sociotechnique apte à la recevoir.
Au-delà, cette perspective présente l’intérêt d’appréhender l’usage à différents niveaux et de dépasser ainsi le strict plan de l’emploi du dispositif technique. L’usage se comprend en effet sous trois angles qui se complètent : (i) en termes de coopération entre le dispositif et l’utilisateur, (ii) de traduction de la figure de l’utilisateur à celle d’un sujet social (lorsque l’usage incorpore un modèle de relations sociales) et (iii) de coordination entre l’usager et un réseau d’acteurs (lorsque l’usage met en relation l’usager avec d’autres entités).

La présentation du corpus de la sociologie des usages nous a offert la possibilité de mettre en évidence des pistes intéressantes permettant de mieux saisir les processus qui conduisent à l’émergence de pratiques liées à l’usage des TIC et, en même temps, elle nous a fourni quelques premières pistes de réflexion pour saisir concrètement l’action de la technique. Plus précisément, cette analyse nous a incité dans un premier temps à rejeter les travaux diffusionnistes qui postulent un certain déterminisme technologique, l’usage étant largement prédéterminé par les propriétés intrinsèques de la technologie. Dans un second temps, les analyses conjointes des courants de l’appropriation et de la traduction nous ont permis de mettre en évidence plusieurs types de résultats : (i) concernant les interactions technologie-usage, ces analyses ont révélé l’importance cruciale du contexte dans lequel ces interactions se déroulent ; (ii) concernant les usages, ces études montrent leurs caractères émergents et donc l’impossibilité de prédire les usages futurs d’une technologie ; (iii) enfin, les travaux de l’école de la traduction, par leur analyse plus spécifique des processus de conception, nous incitent à adopter dès les prémices, une démarche de co-conception en boucles itératives, démarche qui porte à la fois sur l’objet technique mais aussi sur les trajectoires d’usage des futurs utilisateurs. Pour progresser dans cette voie, nous examinerons dès lors les apports d’autres courants de recherche à cette première définition de la technique et des usages.
1.2. Sciences cognitives et usages
Jusque-là ignorées des recherches sur les usages des TIC [Millerand, 2003], certaines approches du domaine des sciences cognitives présentent un grand intérêt pour la compréhension des modalités d’appropriation des dispositifs techniques par les usagers et plus généralement des relations usagers-dispositifs techniques. Ces approches sont notamment investies par le champ de recherche de l’interaction homme-machine (souvent nommé human computer interaction ou HCI) dont l’objectif consiste à adapter la technologie à l’humain et par là, à concevoir des systèmes et des situations d’interaction appropriées à l’action et à la cognition humaine. Cette prise d’appui sur les sciences cognitives conduit le champ de recherche de l’HCI à évoluer de plus en plus vers des méthodologies de conception du point de vue des usagers et non du système et vers l’abandon progressif du paradigme computationnaliste. En effet, de nouveaux constats font jour selon lesquels les dispositifs techniques ne doivent pas être seulement appréhendés comme les applications de connaissances scientifiques (tentant de substituer un système artificiel à une opération cognitive naturelle), mais d’abord et surtout comme les conditions d’existence, de production ou de modification des diverses fonctions cognitives.
Dans cette optique, les chercheurs de l’HCI s’orientent désormais vers une nouvelle génération de systèmes informatiques, systèmes conçus dans la continuité sur la base des usages. Ces nouveaux systèmes voient la cognition comme émergente dans l’interaction avec l’environnement, contrastant avec les visions traditionnelles qui envisageaient le système cognitif en le limitant à l'individu. Pour ce faire, un nouveau cadre de référence apparaît comme central, la cognition distribuée, qui se caractérise par l'élargissement de la notion de système cognitif [Hutchins, 1995 ; Norman, 1993]. La théorie de la cognition distribuée s'intéresse en effet à la structure des connaissances, à leur transformation et à leur propagation via des artefacts, dans un contexte d'interaction (processus de coopération et de collaboration) entre les individus, dont le développement cognitif est considéré non comme un événement isolé, mais au sein d'un système auquel participent à la fois les individus et les artefacts qu'ils utilisent.
Dans cette section, nous avons choisi de développer les apports de ce courant en deux temps : dans un premier temps, nous expliciterons le programme de recherche porté par les auteurs de la cognition distribuée puis, dans un second temps, nous analyserons les visions de la technologie et des usages sous-jacents dégageant ainsi les apports de cette théorie à une démarche de conception orientée usage.
1.2.1. Les enseignements de la théorie de la cognition distribuée
L’hypothèse de cognition distribuée a été formulée dans un contexte particulier où des chercheurs en sciences cognitives ont été amenés à se préoccuper de la conception d’artefacts informatisés pour réaliser des tâches à plusieurs [Conein, 2004]. Partant du constat, dans le champ de l’analyse des interactions homme-ordinateur, de la croissance de la complexité des tâches à réaliser d’une part et de la médiation des interactions en réseau d’autre part, ces auteurs supportent l’idée selon laquelle la cognition distribuée fournit un cadre d’analyse majeur pour comprendre les nouvelles facettes de l’interaction homme-ordinateur et pour le design et l’évaluation de technologies digitales.
Dans cette perspective, nous analyserons la théorie de la cognition distribuée à travers deux points d’ancrage qui la distingue des théories « cognitivistes » [Conein, 2004] : dans un premier temps, nous nous attacherons à définir l’idée d’extension de l’unité d’analyse au système fonctionnel, puis, dans une deuxième partie, nous mettrons en évidence le rôle accordé aux artefacts comme aides cognitives externes.
1.2.1.1. Postulat de base : une analyse du système fonctionnel
La théorie de la cognition distribuée, à l’instar de l’ensemble des théories cognitives, s’attache à l’analyse des systèmes cognitifs. Elle se distingue cependant de ces courants par la définition du système cognitif qu’elle retient : ici, les frontières d’analyse de la cognition sont étendues à l’individu et à son environnement social et matériel. En ce sens, la théorie de la cognition distribuée se détache des modèles classiques des sciences cognitives par son engagement sur deux principes théoriques liés [Hollan et al., 2000] :
Le premier concerne les frontières d’unité d’analyse de la cognition. Tandis que les théories classiques privilégient une analyse de la cognition individuelle, la théorie de la cognition distribuée étend cette unité à l’ensemble des éléments du système de relations fonctionnelles qui participent au processus cognitif.
Le second a trait aux mécanismes s’inscrivant dans les processus cognitifs. Là encore, la cognition distribuée se distingue des perspectives classiques dans la mesure où elle ne se limite pas à l’analyse des manipulations de symboles par des acteurs individuels mais s’intéresse à des évènements plus larges, au-delà de l’enveloppe corporelle de l’individu.
Ceci implique une appréhension différente des processus cognitifs, plus étendue que celle retenue dans les perspectives classiques. Ces différences sont perceptibles à trois niveaux : (i) les processus cognitifs peuvent être distribués entre les membres d’un groupe social, (ii) ils peuvent impliquer une coordination entre des structures internes et externes (matérielles et environnementales), (iii) ils peuvent enfin être distribués dans le temps, les produits d’évènements passés pouvant ainsi modifier la nature des évènements futurs.
Hollan et al. [2000] proposent alors de définir l’approche de la cognition distribuée à travers trois point d’ancrage : la prise en compte d’une cognition socialement distribuée d’une part, d’une cognition incarnée d’autre part et enfin son lien avec la culture.
Une cognition socialement distribuée
Les tenants de la cognition distribuée adhèrent à l’idée selon laquelle une organisation sociale peut être appréhendée comme une architecture cognitive. La logique mise en évidence est la suivante : les processus cognitifs entraînent des trajectoires d’information (transmission et transformation) ; ces patterns de trajectoires d’information, en cas de stabilité, reflètent des architectures cognitives sous-jacentes ; comme les organisations sociales déterminent des flots d’information à travers des groupes sociaux, elles peuvent être vues comme des architectures cognitives. Ceci implique que les concepts utilisés pour comprendre les groupes sociaux peuvent être appliqués à l’analyse de la cognition. Or, ces modèles mettent en évidence le rôle clé joué par la coordination lorsqu’un collectif d’acteurs doit achever des buts. Nous comprenons alors qu’il s’agit pour ce courant d’appréhender la cognition comme distribuée entre les membres d’un groupe social. Au-delà, la cognition distribuée s’attache également à l’analyse des phénomènes émergents dans l’interaction sociale ainsi qu’aux interactions hommes / outils dans leur environnement.
Une cognition incarnée
Dans une perspective de cognition distribuée, les esprits ne sont pas des machines de représentations passives, dont la fonction serait de créer des modèles internes à partir monde externe. Au contraire, l’organisation de la pensée est une propriété émergente des interactions entre ressources internes (mémoire, attention, …) et externes (objets, artefacts, …). Ici, le corps et le monde matériel jouent des rôles centraux dans les processus cognitifs. Selon Clark [1997], lorsque la cognition s’appuie sur une aide externe, elle devient interactive et relationnelle donc non détachable d’un composant externe présent dans l’environnement. Ceci explique donc que « l’attention doit porter sur les mécanismes au moyen desquels les gens utilisent les ressources à la fois internes et externes pour organiser leurs actions » [Hollan et al., 2000].
Culture et cognition
Enfin, la dernière caractéristique du courant de la cognition distribuée consiste en la non séparation entre cognition et culture. Dans cette perspective, la culture, entendue comme un processus de stockage de solutions partielles à des problèmes rencontrés, façonne les processus cognitifs d’un système. En ce sens, la cognition est dite culturelle dans la mesure où elle est construite par le jeu des interactions à la fois sociales (avec des individus) et techniques (avec des artefacts) qui ont cours dans des environnements marqués socialement et culturellement.

Ces trois points montrent des divergences fondamentales entre les modèles classiques des sciences cognitives et la théorie de la cognition distribuée. Ces divergences ont trait principalement au refus d’une réduction de la cognition à un système interne (neural ou mental) ou sa restriction à une cognition individuelle [Conein, 2004]. Dès lors, il s’agit pour les auteurs d’analyser comment un système composé d’une part d’individus, parties prenantes d’activités finalisées, reliés entre eux par des relations d’interaction, et d’autre part, le répertoire d’outils support de leur coordination, effectuent des tâches cognitives de type calcul de données, stockage, mémorisation et plus généralement traitement de l’information.

« On peut déplacer la frontière de l’unité cognitive d’analyse au-delà de l’enveloppe corporelle de l’individu de façon à inclure le matériel et l’environnement social comme composant d’un système cognitif plus étendu »
[Hollan et al., op. cit. : 175].
Une telle approche est particulièrement intéressante dans la mesure où elle offre une occasion de réhabiliter les places et rôles des outils dans la structuration et l’exécution des actions humaines. L’action relève d’une construction de significations qui émerge d une rencontre in situ d un acteur avec un contexte social et matériel. Les outils jouent un rôle essentiel dans la contextualisation de l action [ðConein et Jacopin, 1993]ð. La structuration mais aussi l efficacité de l action dépendent à la fois de la présence, de l’architecture, et des propriétés intrinsèques de ces outils.
Les tenants de la cognition distribuée défendent donc l’idée d’une action humaine comprise en référence au cadre social mais aussi matériel dans lequel elle se déroule. L’action peut alors se définir comme une coordination entre un dispositif technique et son utilisateur (ou plusieurs utilisateurs) [Hutchins, 1995]. L’environnement matériel participe à la cognition en offrant un mode particulier de traitement et de représentation de l’information, en particulier de l’information utile à la réalisation des activités humaines. La cognition est distribuée dans la mesure où elle fait appel à une variété de structures qui sont extérieures au corps humain.
1.2.1.2. Les versants écologique et social de la cognition distribuée
Comme le souligne Conein [ibid.], le courant de la cognition distribuée est souvent travaillé sous deux angles complémentaires :
Certains, comme Kirsh et Norman principalement, s’attachent au versant écologique de celle-ci où des processus cognitifs se distribuent entre un agent et des artefacts (ustensiles, équipements, textes, ordinateurs …).
D’autres, tels Hutchins, portent une attention toute particulière au versant social c’est-à-dire à la distribution des processus cognitifs entre plusieurs agents se coordonnant au sein d’un même site.
Il ne s’agit pas ici de mettre en opposition ces deux versants de la cognition distribuée mais bien de les présenter dans leur complémentarité. En effet, ces deux versants s’appuient sur les mêmes principes fondamentaux que nous avons développés précédemment. Ils se distinguent cependant dans le prisme d’analyse retenu : pour les uns, il s’agit de l’analyse de la distribution des processus cognitifs entre un individu et des artefacts ; pour les autres, il s’agit plus spécifiquement d’analyser la distribution des processus cognitifs lors d’interactions sociales. La question centrale reste néanmoins celle d’une analyse cognitive de la relation entre les objets, les groupes et les systèmes informatiques.
Le versant écologique de la cognition distribuée
Norman [1988, 1991, 1993] et Kirsh [1995, 1999, 2001] sont les représentants du versant écologique de la cognition distribuée. Ils se posent tous deux la question de la conception de systèmes informatiques. Pour cela, ils souhaitent appréhender les relations entre l’individu, son environnement physique et ses artefacts. Ici, nous avons choisi d’étudier tout particulièrement l’article de Norman [1993] qui place les artefacts cognitifs au cœur de son analyse. Nous présenterons par la suite succinctement les travaux de Kirsh et Norman sur les espaces de travail.
Les artefacts cognitifs
Selon Norman [1993], l’interaction homme-ordinateur soulève des problèmes analogues à pratiquement toute technologie, qu’il s’agisse d’une porte, d’un interrupteur ou d’une salle de contrôle de centrale nucléaire, problème qui tient aux interactions habituelles entre le monde et la façon d’exécuter les tâches. Norman se donne alors pour objectif de comprendre le rôle que les artefacts physiques jouent dans le traitement de l’information, artefacts définis comme des artefacts cognitifs c’est-à-dire des « outils artificiels conçus pour conserver, exposer et traiter l’information dans le but de satisfaire une fonction représentationnelle » [ibid. : 18]. Dans son analyse, Norman souhaite dépasser l’étude étroite de l’interface homme-machine et adhère pour cela à l’idée selon laquelle l’interaction entre les individus et la tâche influence l’artefact et son usage. Sa problématique se centre sur les propriétés de l’artefact et sur l’influence que sa conception a sur la personne et sur la tâche à réaliser.

« Les artefacts ne changent pas seulement les capacités d’un individu, ils changent en même temps la nature de la tâche que la personne accomplit. Quand la structure informationnelle et opératoire de la tâche est couplée à la fois avec le dispositif informationnel et opératoire de la personne, les capacités cognitives du système global humain-tâche-artefact se trouvent augmentées et améliorées ».
[Norman, 1993 : 21]
Deux points de vue peuvent être adoptés pour l’analyse du rôle joué par les artefacts. Le point de vue « système » considère simultanément la personne, la tâche et l’artefact. Ici, un artefact améliore la cognition puisqu’il permet à une personne de faire plus que sans lui. Prenons l’exemple de la check-list, chère aux auteurs du courant de la cognition distribuée. Si nous regardons l’individu et la tâche qu’il exécute, cette liste des ‘choses-à-faire’ apparaît comme un aide-mémoire qui améliore la performance de l’individu. Le point de vue de la personne modifie cette perspective. En effet, l’artefact ne joue pas ici en termes d’amélioration de la performance mais en modifiant la tâche à accomplir par l’individu. Dans le cas de la check-list, l’utilisation de la liste est en elle-même une tâche et introduit au-delà trois nouvelles tâches : dresser la liste, se souvenir de consulter la liste, lire et interpréter les items sur la liste. Ce préalable, appelé phase de pré computation par Hutchins, peut être effectué à un autre moment voire par une autre personne : il s’agit de pré computation et de distribution de la tâche cognitive entre les gens et dans le temps.
Dans cet exemple, Norman montre que du point de vue du système, l’artefact paraît augmenter certaines capacités fonctionnelles de l’utilisateur. Du point de vue de la personne, l’artefact a transformé la tâche initiale en une nouvelle tâche, cette tâche pouvant différer radicalement de l’originale par les exigences et les capacités cognitives qu’elle requiert. Au final, les artefacts modifient la façon d’accomplir une tâche : ils peuvent distribuer les actions dans le temps, entre les personnes et celles requises par ceux qui accomplissent l’activité.
Au-delà, les artefacts, et plus particulièrement les artefacts cognitifs, acquièrent leurs fonctions en tant qu’outils représentationnels qui orientent et guident l’action de l’usager. Plus précisément, ils ont un statut particulier d’aides externes et d’outils cognitifs [Hutchins, 1990], c’est-à-dire d’outils conçus pour conserver, présenter et traiter l’information dans le but d'aider les individus à réaliser leurs tâches cognitives. Ils se comprennent comme des objets dépositaires et médias de connaissances qui aident et orientent l’action humaine en créant, transformant et propageant des représentations. Selon Norman, les représentations contenues dans les artefacts sont de deux ordres: les représentations dites « en surface » et les représentations qualifiées « d’internes ». Les représentations de surface sont celles qui sont d’emblée rendues visibles pour l’utilisateur : « on les appelle en surface dans la mesure où les symboles sont conservés au niveau de la surface visible de l’instrument, par des marques telles que des signes au crayon ou à l’encre sur du papier, à la craie sur un tableau noir… » [ibid. : 29]. Les représentations internes font pour leur part davantage référence à la logique implicite, aux propriétés intrinsèques qui caractérisent la représentation de surface [Palmer, 1978]. La représentation de surface, directement utilisable et interprétable par l’utilisateur est également porteuse d’une logique implicite qui lui confère toute sa substance, en d’autres termes, une signification sous-jacente.
Dans cette perspective, pour qu’un artefact soit utilisable par l’individu (lui-même défini comme un système avec une représentation interne active), deux conditions doivent être satisfaites : la représentation en surface doit être interprétable par l’individu ; les opérations exigées pour modifier l’information dans l’artefact doivent elles aussi pouvoir être exécutées par l’usager. En d’autres termes, selon Norman, « un des points essentiels dans le développement d’un artefact est le choix entre le monde représenté et le monde représentant c’est-à-dire entre la représentation en surface et le domaine de tâche que l’artefact réalise » [op. cit. : 29].

L’espace de travail
Les chercheurs s’intéressent ici aux espaces de travail conçus selon le modèle de la cuisine et du bureau c’est-à-dire comme des endroits où les agents utilisent un environnement stabilisé par les divers objets fonctionnellement assemblés [Conein, ibid.]. Selon Norman [1991], un système est distribué si l’environnement est bien adapté à la tâche à accomplir. Dans cette perspective, la tâche du concepteur de systèmes informatiques consiste à concevoir les interactions d’un agent avec les environnements artefactuels, en d’autres termes, se représenter nos interactions avec les objets quotidiens et les environnements équipés.
Comme le souligne avec justesse Conein [ibid.] :
« La conception de la relation avec l’environnement qu’on trouve chez Norman devient progressivement une manière de concevoir la distribution de la cognition à partir du paradigme de l’ordinateur personnel »
[Conein, ibid. : 8].
Ceci explique que des auteurs de la cognition distribuée, et plus particulièrement Norman et Kirsh, se soient intéressés aux interactions au sein des espaces de travail. Le concept central apparaît alors être celui d’affordance emprunté à Gibson [1978] et qui se définit comme « ce qu’offre l’environnement à un agent, ce qu’il octroie ou fournit » [Gibson cité par Conein, ibid. : 7]. A titre d’illustration [Millerand, 1993 : 86], une surface plane située à la hauteur des genoux d’un individu l’invitera à s’asseoir dessus. Dans ce cas précis, les affordances de la surface en question sont définies en fonction de ses propriétés particulières (en termes de hauteur, de largeur et de solidité notamment) en référence à un individu en particulier (en termes de grandeur et de poids notamment). Alors, ce qui peut constituer un siège pour un individu (un adulte par exemple) pourra constituer une table pour un autre (un enfant par exemple). Ici, Norman formule l’hypothèse selon laquelle l’apparence des artefacts fournirait d’emblée les indices nécessaires à leur mise en fonctionnement ou mise en usage. Autrement dit, « les artefacts permettraient (afford) certaines utilisations en fournissant des informations ou des instructions à travers leurs propriétés représentationnelles, par exemple en remplaçant certaines opérations cognitives par une perception directe d’indices » [Millerand, op. cit. : 87].
Les affordances intentionnelles se définissent quant à elle comme des offres conçues par les agents, des adaptations de l’environnement à une tâche. L’exemple qui illustre le mieux ce concept d’affordance intentionnelle est celui de Norman [ibid.] sur les boutons de porte [Conein, ibid.]. Il prend sa source dans le constat selon lequel les citoyens américains ont des difficultés pour ouvrir des portes au Japon car la forme de ces boutons ne leur est pas familière. Dans ce contexte, l’agent ne peut s’appuyer sur la forme du bouton car l’objet n’agit plus comme une aide externe qui permet d’ouvrir une porte sans raisonner sur les formes de matériaux. Ici, l’objet (la forme physique) et l’artefact (but de l’action) sont séparés, le bouton n’assure pas un couplage entre l’agent et l’environnement pour l’action d’ouvrir la porte car il n’y a pas d’affordance intentionnelle qui permet un couplage action / perception.
L’idée consiste alors à projeter ce modèle des affordances sur l’écran de l’ordinateur. Pour ce faire, les tenants de la cognition distribuée conçoivent l’espace de travail comme une surface qui est à la fois une zone informationnelle d’indications, par le placement des objets, et une zone de manipulation. Par son interface de manipulation directe, l’ordinateur est considéré comme un outil et son interface graphique présente un modèle extrêmement efficace d’aide externe parce qu’elle est à la fois un principe de conception des objets et une manière de faciliter nos actions avec un objet complexe en réduisant la complexité de la tâche [Conein, ibid.].
Kirsh complète ce modèle de représentation de l’espace de travail en introduisant une vision plus complexe de l’action de l’environnement et du rôle que les objets y jouent : il souligne ainsi l’importance des activités de structuration en ligne liées au placement, au groupement et au rangement des objets sur l’espace de travail.

En résumé, la version écologique de la cognition distribuée telle que développée par Kirsh et Norman privilégie des cas spécifiques d’architecture de l’espace de travail où les processus cognitifs sont distribués entre des objets personnels, une surface de travail et un agent individuel. Dans ce versant, le système cognitif est limité à la fois par son site, par ses composants et par les patterns d’interaction qui prédominent [Conein, ibid.]. C’est justement cette spécificité du système cognitif qui permet d’opérer la distinction entre versant écologique et social de la cognition distribuée.

Le versant social de la cognition distribuée
Le versant social de la cognition distribuée, principalement investi par Hutchins [1995], analyse des sites dont l’extension est différente dans la mesure où elle implique de façon essentielle un groupe social qui présente des propriétés cognitives spécifiques. La problématique se déplace alors et il s’agit désormais de penser comment un groupe et l’interaction sociale, appuyé par des objets, peut servir d’aide externe.
Hutchins [ibid.] étudie la façon dont une équipe de marins fait le point sur un bateau de guerre ou encore comment deux pilotes de ligne se coordonnent dans un cockpit autour de divers artefacts cognitifs. Il est ainsi un des premiers analystes à insister sur l’importance de la dimension cognitive du groupe social :

« Quand le travail qui est distribué est de nature cognitive, le système met en jeu la distribution de deux types de travail cognitif : une cognition qui concerne la tâche elle-même et une cognition qui gouverne la coordination des composants de la tâche. Dans ce cas, le groupe accomplissant la tâche peut avoir des propriétés cognitives qui diffèrent des propriétés propres à chaque individu ».
Hutchins [ibid : 176]
Pour Conein [ibid.], il s’agit, dans ce versant de la cognition distribuée, de répondre à différents questionnements tels que les modèles de l’interaction sociale dont disposent les chercheurs en cognition distribuée pour penser des dynamiques d’interaction entre les personnes à côté des patterns d’interaction avec les artefacts ou encore « doit-on penser ces dynamiques de façon juxtaposée comme une mise en correspondance : l’interaction homme/homme selon le mode conversationnel du face-à-face et du regard mutuel et l’interaction homme / artefact selon le mode de l’affordance intentionnelle ? » [Conein, ibid. : 14].
Une des réponses apportées par les tenants du courant de la cognition distribuée à ces questions se trouve dans la façon de concevoir l’interaction sociale. Pour eux, l’interaction sociale revêt deux niveaux d’interaction : des interactions dyadiques en face-à-face, fondées sur l’attention mutuelle, et des interactions sociales coopératives avec des objets, fondées sur l’action conjointe c’est-à-dire une attention partagée et une vision co-orientée par un objet. Opérer cette distinction entre action conjointe et action mutuelle permet alors de comprendre comment l’action avec les objets s’insère au sein de la coordination sociale et également comment les interfaces des nouvelles technologies numériques peuvent s’ancrer dans des activités coopératives et dans le travail en équipe, à travers des interfaces ouvertes.
Ici, les hypothèses de la cognition distribuée permettent d’expliquer la distribution cognitive et l’interaction sociale dans un site réel. Cependant, elles ne disposent pas d’un modèle de l’interaction sociale qui permet d’expliquer la problématique de l’informatisation en milieu organisationnel. En effet, même si les auteurs de la cognition distribuée ne nient pas l'existence d'un système englobant, social ou culturel, façonnant notamment les schèmes de représentations des individus, ils n'y attachent pas d'intérêt spécifique. En particulier, le cadre de référence de la cognition distribuée ne permet pas de formaliser les profondeurs organisationnelle et institutionnelle dans lesquelles les activités et les tâches sont enchâssées. Or, la manière dont les utilisateurs vont interagir avec la technologie, leurs attentes vis-à-vis de l’outil, porte en partie l’empreinte de l’organisation dans laquelle ils sont encastrés. Ceci nous conduira par la suite à nous poser la question des interactions entre individus et entre individus et technologies en milieu organisationnel à partir des travaux de la structuration.

Au final, versant écologique et versant social partagent les mêmes hypothèses fortes et accordent un rôle central aux artefacts en tant que supports et médias de représentations externes. La cognition distribuée insiste en effet sur le rôle cognitif déterminant joué par les objets présents dans l’environnement : ces objets ne peuvent être considérés comme de simples aides périphériques à la cognition mais ils constituent une forme de représentation externe, qui va intervenir, avec les représentations internes, dans la constitution du système représentationnel d’une tâche cognitive distribuée [Salembier, 1996]. Dans cette perspective, ce courant nous semble porteur pour appréhender les usages, c’est pourquoi nous allons maintenant mettre en évidence les apports de ce courant à la prise en compte des usages.
1.2.2. Une conception particulière de l’interaction outil/utilisateur et de l’usage de l’outil
Opérant un glissement du niveau d’analyse de l’individu au système fonctionnel, la théorie de la cognition distribuée a élargi la notion de système cognitif de l’individu à son environnement social et matériel. Elle s’est notamment donnée pour objectif d’analyser comment un système composé d’une part d’individus, parties prenantes d’activités finalisées, reliés entre eux par des relations d’interaction, et d’autre part, le répertoire d’outils support de leur coordination, effectuent des tâches cognitives de type calcul de données, stockage, mémorisation et plus généralement traitement de l’information.
Une telle approche est particulièrement intéressante dans la mesure où elle offre une occasion de réhabiliter les places et rôles des outils dans la structuration et l’exécution des actions humaines. L’action relève d’une construction de significations qui émerge d’une rencontre in situ d’un acteur avec un contexte social et matériel. Les outils jouent un rôle essentiel dans la contextualisation de l’action : la structuration mais aussi l’efficacité de l’action dépendent à la fois de la présence, de l’architecture, et des propriétés intrinsèques de ces outils.
Les tenants de la cognition distribuée défendent donc l’idée d’une action humaine comprise en référence au cadre social mais aussi et surtout matériel dans lequel elle se déroule. L’action peut alors se définir comme une coordination entre un dispositif technique et son utilisateur [Hutchins, 1995]. Dans cette perspective, les outils acquièrent véritablement un statut d’outils cognitifs [Hutchins, 1991], c’est-à-dire d’outils qui vont participer à la cognition et ainsi aider les individus dans la réalisation de leurs propres tâches cognitives. L’environnement matériel participe à la cognition en offrant un mode particulier de traitement et de représentation de l’information, en particulier de l’information utile à la réalisation des activités humaines notamment coopératives, qu’il s’agisse d’activités complémentaires combinées ou d’activités conjointes. Pour leur part, les individus qui utilisent les outils dans le cadre de leurs activités, profitent dans le même temps de toute la connaissance accumulée qui y est contenue et véhiculée.
1.2.2.1. Une conception originale des outils et de leurs propriétés intrinsèques.
Les outils, plus souvent qualifiés d’artefacts cognitifs, sont assimilés à des supports et des médias de représentation. En ce sens, ils sont vus comme des entrepôts et des médias de connaissances que les individus passent au crible de leurs propres systèmes de représentation pour faire émerger des significations, prémices à la construction en situation de leurs actions finalisées [Cicourel, 1994]. Les connaissances utilisées pour mener à bien une tâche ou pour résoudre un problème sont vues comme réparties entre les individus et les ressources matérielles qu’ils utilisent. L’artefact cognitif est donc vu comme un espace récepteur de connaissances qui oriente l’action humaine en créant, transformant et propageant des représentations. Les individus exploitent ces artefacts pour structurer leurs actions, les artefacts cognitifs leur offrant une perception du monde et une interprétation des événements qui s’y produisent.
L’artefact prend donc part à la cognition en tant que support et média de représentations. La réalité y est traduite, rendue accessible, interprétée via des formalisations porteuses de sens (comme une carte de navigation). Comme le souligne Newell [1981], trois ingrédients sont essentiels à la compréhension de ce qu’est un artefact cognitif : une réalité qu’il est censé représenter, la représentation qu’il en donne en tant que support d’états représentationnels et les clés de décodage permettant à l’utilisateur de décoder la connaissance contenue dans l’artefact, c’est-à-dire de lui donner une signification. Pour Norman [1993], l’artefact cognitif joue ainsi un rôle dans la sensibilité perceptive des individus. Dans le même temps, les individus imposent leurs propres significations aux événements, certains devenant pertinents pour eux, d’autres demeurant insignifiants.
Enfin, l’artefact cognitif présente la particularité intrinsèque d’être un construit social, la dynamique sociale soutenant notamment les multiples étapes qui jalonnent son design. En l’occurrence, Hutchins considère que le design des outils repose sur une cristallisation du savoir provenant de différents acteurs sociaux à travers le temps. En ce sens, il privilégie la perspective d’accumulation des connaissances, conférant au design un caractère progressif et itératif et manquant dans le même temps de considération pour les dimensions politiques et la récursivité des pratiques [Groleau, 2000], dimensions que prendront à leur charge d’autres travaux ayant mis en exergue la dimension sociale des outils technologiques. Pourtant, si l’artefact est toujours vu comme un espace dépositaire des connaissances accumulées dans le temps par les acteurs sociaux qui se sont succédé au fil des générations, la logique temporelle ne peut être la seule qui prédomine à sa conception. En effet, dans la mesure où son usage est consubstantiel à une finalité donnée et localement située, le choix des connaissances qui y sont contenues et véhiculées n’a rien d’arbitraire, ce choix déterminant tout à la fois son utilité et sa fonctionnalité futures [Norman, 1991]. Ici, la conception des artefacts cognitifs prend fondamentalement appui sur son contexte d’usage et à leur finalité fondamentalement pragmatique. Il s’agit alors de s’interroger sur l’information utile qui mérite d’être représentée. L’artefact, considéré ici comme un objet non neutre de connaissances et d’intentionnalités préexistantes, cristallise les connaissances accumulées au fil du temps. Il doit surtout permettre à son utilisateur, via les représentations qu’il véhicule, de travailler avec l’information, pas plus pas moins, dont il a besoin dans le cadre de son activité [Norman, ibid.]. Le choix des représentations dites “ de surface ” est déterminant pour l’utilisation future de l’artefact, de même que l’est la logique implicite qui prévaut à leur mise en forme. Autrement dit, si l’accent est mis sur le rôle majeur joué par le format des représentations, question largement investie par les ergonomes, le débat sur la construction des artefacts mérite d’être élargi au contenu et à la substance de ces représentations. L’efficacité artefactuelle s’apprécie notamment suivant la capacité de l’artefact à proposer des connaissances pertinentes au regard de la nature des activités auxquelles il prend part.
Nous soutenons ainsi, à l’instar de Breton et Proulx [2002], que le travail de conception suppose un travail de coordination entre usagers et concepteurs et la prise en compte des pratiques d’usage. Dans cette perspective, le courant de la cognition distribuée nous semble porteur dans la mesure où il permet d’appréhender l’environnement rapproché dans lequel se déroulent ces pratiques entendues dans ce courant comme des actions en contexte : celui-ci est considéré comme le prolongement des êtres humains qui le constituent.
1.2.2.2. Une conception particulière de l’usage de l’outil
Si la cognition distribuée offre un cadre de référence porteur en symétrisant les dimensions écologique et sociale dans la formalisation de l’action humaine, ses conclusions nous sont alors particulièrement utiles d’un autre point de vue. En effet, elle nous enseigne que l’action émerge d’un couplage in situ de l’acteur, de son contexte et des objets de l’environnement.
Dans cette perspective, l’usage de l’outil n’apparaît pas ex nihilo mais il s’articule avec celui d’autres dispositifs, sa pratique étant bien souvent intégrée à d’autres pratiques (à identifier), comme le suggère la référence à l’écologie des outils. L’usage est donc un construit social et le fruit d’une interaction de nature cognitive entre l’outil et son utilisateur, dans un espace de travail donné. D’une part, il s’articule à celui d’autres dispositifs et dépend alors prioritairement de la capacité de l’outil à s'intégrer au système fonctionnel et en particulier au répertoire d'outils préexistants. D’autre part, parce que l’environnement matériel offre un mode spécifique de traitement et de représentation de l’information, le contenu et la structure des informations qu’il véhicule constituent un des déterminants majeurs de son usage. En particulier, l’usage de l’outil dépend de sa capacité à contenir et à structurer des informations qui font sens pour ses utilisateurs, compte tenu des tâches qu’ils ont à réaliser, de leur propre système de connaissances et des connaissances disponibles dans les autres outils.
L’interaction outil/utilisateur ne peut être donc appréhendée séparément de l’environnement dans lequel elle s’enracine [Hutchins, 1995] ; elle porte l’empreinte du contexte local dont les propriétés participent à son émergence et à son organisation. L’idée forte à retenir est donc de relier la phase de conception à la description de l’activité à laquelle prend part l’utilisateur c’est-à-dire à la prise en compte des détails sur la manière dont cette activité est située dans son environnement matériel, social, culturel et/ou historique.
En définitive, l’usage se rapporte à la finalité fondamentalement pragmatique de l’outil et il est simultanément abordé du point de vue de l’utilisabilité (usability) et de l’utilité (utility) [Ratier, 2000] :
l’utilisabilité de l’outil se réfère à sa facilité d'utilisation et d'apprentissage par une adaptation au profil physiologique, psychologique ou psychosociologique des utilisateurs. Cette problématique est plus particulièrement investie par les ergonomes qui s’interrogent notamment sur les interfaces de navigation graphique.
son utilité relève de son intégration aux tâches cognitives que les utilisateurs réalisent, dans leurs interactions, au sein du système fonctionnel. Ici, les sciences de gestion, parce qu’elles placent l’analyse des interactions sociales en milieu organisationnel au cœur de leurs problématiques, se révèlent être un point de passage obligé.

Au final, l’usage est analysé sous l’angle du contexte social et surtout matériel qui va gouverner l’interaction outil/utilisateur, plus précisément sous l’angle des pratiques récurrentes de travail collaboratif médiatées par des outils d’aide à la cognition humaine. Une place toute particulière est ainsi accordée aux dimensions interactive et cognitive de ces pratiques, notamment le contenu et la structure des représentations requis pour permettre le bon déroulement de la coopération.
Cependant, comme nous l’avons déjà souligné préalablement, il nous semble que les analyses effectuées par la cognition distribuée méritent d’être enrichies par d’autres, destinées à comprendre de quelle manière l’interaction outil/utilisateur et donc l’usage sont encastrés dans un contexte ou espace social plus vaste, notamment organisationnel. De ce point de vue, parce qu’elles placent l’analyse des interactions sociales en milieu organisationnel au cœur de leur problématique, les sciences de gestion nous semblent être un point de passage obligé.
1.3. Les apports de la théorie de la structuration à l’appropriation des TIC
La problématique des usages en sciences de gestion est relativement récente puisque les travaux pionniers sont apparus à la fin des années 80 notamment du fait de l’explosion des TIC. Dès les prémices, ces recherches ont centré leurs analyses sur la problématique de l’appropriation de TI par les usagers dans le cadre de leur travail en entreprise.
Deux courants semblent façonner ce champ de recherche en sciences de gestion : un premier connu sous le nom du modèle de l’acceptation de la technologie (TAM) initié par Davis et al. [1989], et un second, qui consiste en une mobilisation des travaux de la structuration pour l’étude de l’informatisation dans les organisations, courant qui rassemble de nombreux auteurs tels Barley [1986], Poole et De Sanctis [1990, 1992] ou encore Orlikowski [1992, 1996, 2000].
Le modèle TAM est un modèle spécifique qui permet d’expliquer l’acceptation et l’usage des nouvelles technologies de l’information. Dans ce modèle, l'explication dominante est recherchée dans les propriétés intrinsèques de la technologie, propriétés supposées stables dans le temps et indépendantes de l'utilisateur. Ici, comme dans le modèle de la diffusion de Rogers, il y a une hypothèse implicite de déterminisme technologique : les facteurs de contexte sont peu analysés, les mesures du succès retenues concernent essentiellement la qualité de l'information, la qualité du système et l'utilisation entendue ici comme l’adoption de la technologie. Cette adéquation avec les approches déterministes nous pousse de fait à écarter ce modèle de nos analyses.
En revanche, en plaçant l'action au cœur de leur problématique, les théories structurationnistes permettent l'analyse conjointe des structures organisationnelles et des interactions nouées entre les individus et les technologies. Elles renseignent au-delà sur l’usage à proprement parler et sur une conception particulière de la technologie, vision qui s’inscrit dans la lignée des définitions que nous avons précédemment amorcées. De fait, nous n’analyserons dans cette section que les apports structurationnistes à la définition de la technologie et des usages en sciences de gestion. Dans un premier temps, nous effectuerons un détour par la théorie originelle de Giddens [1979, 1984, 1987]. Nous décrirons ensuite les travaux fondateurs de Barley [1986], premier à revendiquer une approche structurationniste du lien technologie-organisation. Puis, nous nous attacherons à présenter d’une part la théorie adaptative de Poole et DeSanctis et d’autre part le modèle structurationnel d’Orlikowski.
1.3.3.1. Les origines de la théorie de la structuration
La théorie de la structuration de Giddens [op. cit.] est particulièrement complexe à appréhender et de nombreux auteurs soulignent les difficultés de synthétiser et saisir une telle approche [Rojot, 1998 ; Giordano et Groleau, 2004]. Pour autant, celle-ci fait preuve d’une richesse et d’une grande variété qui expliquent que de nombreux travaux mobilisent à l’heure actuelle cette théorie du social et ce de façon diverses.
Désireux de sortir d’un cadre limitatif imposant d’un côté une domination du sujet individuel et de l’autre une domination des structures sociales, Giddens [op. cit.] prône une relation dialectique entre la structure et l’action : « aucune n’est cause de l’autre mais elles sont deux face d’une même totalité sociétale » [Rojot, ibid..]. L’originalité de Giddens [op. cit.] se situe ainsi dans sa volonté de lier deux niveaux habituellement disjoints : le niveau des pratiques locales, de l’action, et celui des institutions, de la structure, en d’autres termes les niveaux micro-social et macro-social. Selon lui, « l’objet d’étude par excellence des sciences sociales est l’ensemble des pratiques sociales accomplies et ordonnées dans l’espace et le temps, et non l’expérience de l’acteur individuel ou l’existence de totalités sociétales » [Giddens, op. cit. : 50].
Afin de présenter avec le plus de clarté possible les développements de Giddens, nous procéderons en deux temps : dans un premier temps, nous développerons le modèle de stratification de l’action et sa vision sous-jacente de l’acteur et de l’action, puis, dans un second temps, le concept de dualité du structurel.
1. Le modèle de stratification de l’action

Dans la théorie de la structuration, l’action humaine revêt une place prépondérante [Rojot, ibid..]. Elle est contextuelle et située dans un monde constitué d’évènements en cours, indépendants des agents et qui ne contient pas de futur déterminé. Elle ne peut se définir comme une combinaison d’actes et ne se conçoit ni se discute indépendamment du corps, de ses rapports de médiation avec le monde environnant et avec la cohérence d’un soi agissant. Cette contextualité de l’action explique, selon Giddens [op. cit.], que les interactions soient toujours situées dans l’espace temps. L’unité pertinente d’analyse de l’action est la personne, ce qui implique un lien indissociable entre action et acteur, « l’un ne pouvant se comprendre abstrait et isolé de l’autre » [Rojot, op. cit. : 6].
Ici, l’action permet tout à la fois de comprendre le point de vue des agents et la constitution des institutions sociales. En effet, pour Giddens [op. cit.], action et structure se résolvent par récursivité : « les activités sociales des êtres humains sont récursives, comme d’autres éléments autoreproducteurs dans la nature. Les acteurs sociaux ne créent pas ces activités, ou plutôt ils les recréent sans cesse en faisant usage des moyens mêmes qui leur permettent de s’exprimer en tant qu’acteur. Dans leurs activités, et par elles, les agents reproduisent les conditions qui rendent ces activités possibles » [Giddens, ibid.. : 50].
Cette récursivité est fondée sur un contrôle réflexif de l’acteur, contrôle qui caractérise toutes les actions. Comme le souligne Giddens, « la continuité des pratiques présuppose la réflexivité ; en retour, la réflexivité n’est possible que par la continuité des pratiques, qui rend ces dernières distinctivement identiques dans l’espace et dans le temps ». La réflexivité se définit ainsi comme la conscience de soi c’est-à-dire la capacité de situer l’action par rapport à soi. Au-delà, elle est la capacité de surveiller et de contrôler le flot continu de la vie sociale et des contextes et de s’y situer. En effet, les agents ne se contentent pas de suivre de près le flot de leurs activités et d’attendre des autres qu’ils fassent de même, ils contrôlent aussi, de façon routinière, les dimensions sociale et physique des contextes dans lesquels ils agissent.
La réflexivité constitue, à côté de la motivation et de la rationalisation, trois ensembles de processus qui s’enchâssent les uns dans les autres pour constituer ce que Giddens appelle le modèle de stratification du soi agissant. Dans ce modèle, la rationalisation fait référence à la capacité des individus d’expliquer pourquoi ils agissent comme ils le font, en d’autres termes, « au fait que les acteurs, encore une fois de façon routinière et sans complication, s’assurent d’une compréhension théorique continue des fondements de leurs activités » [Giddens, op. cit. : 54]. Les acteurs sociaux sont donc compétents, ils ont une connaissance des conditions et des conséquences de ce qu’ils font dans leur vie de tous les jours. Une telle connaissance n’a pas seulement une forme discursive, elle s’ancre la plupart du temps dans la conscience pratique. En effet, une grande partie du savoir commun mis en jeu dans les rencontres est de nature pratique : il est inhérent à la capacité de continuer d’accomplir les routines de la vie sociale. Si les acteurs sont en général capables de donner un compte-rendu discursif de leurs actions et des raisons qui les fondent, la compétence des acteurs, pour l’essentiel, s’enchâsse dans le cours des conduites quotidiennes.
La motivation, quant à elle, renvoie au potentiel d’action d’un individu plutôt qu’au mode d’accomplissement de l’action par l’agent. Elle diffère du sens qu’on lui attribue habituellement : en effet, pour Giddens, les motifs n’agissent directement sur l’action que dans des circonstances inhabituelles, qui brisent la routine. Ils fournissent des plans généraux, des programmes dans le cadre desquels se réalisent un ensemble d’activités, ce qui explique que les conduites de tous les jours ne soient pas directement motivées.
Réflexivité, motivation et rationalisation font ici référence à l’acteur. L’action, quant à elle, fait référence à des événements dont le dénouement résulte de l’intervention d’une ou plusieurs personnes qui avaient la possibilité d’infléchir sur son déroulement en agissant autrement de par leurs capacités [Auttisier, 2001].

« L’action fait référence aux événements dans lesquels une personne aurait pu, à n’importe quelle phase d’une séquence de conduites, agir autrement : tout ce qui s’est produit ne serait pas arrivé sans son intervention. L’action est un procès continu, un flot, dans lequel le contrôle réflexif qu’exerce une personne est fondamental pour le contrôle du corps, contrôle qu’elle assure de façon ordinaire dans sa vie de tous les jours » [Giddens, op. cit. : 57].

Ici, l’action n’est pas la manifestation d’une causalité directe totalement intentionnelle. La durée de la vie de tous les jours se traduit en effet par un flot d’actions intentionnelles qui ont cependant des conséquences non intentionnelles. L’exemple du langage utilisé par Giddens illustre cette non intentionnalité couplée à l’action : « lorsque je parle ou que j’écris de façon correcte en anglais, je contribue du même coup à reproduire la langue anglaise ; parler ou écrire correctement en anglais est intentionnel, contribuer à la reproduction de cette langue ne l’est pas » [op. cit. : 56]. Ces conséquences non intentionnelles de l’action peuvent devenir par la suite des conditions non reconnues d’actions ultérieures.
Au final, le modèle de la stratification de Giddens peut être représenté comme suit :


Figure 2 : Le modèle de stratification de l’action de Giddens [Autissier, 2001]
Dans ce modèle, l’action est stratifiée horizontalement par son processus « condition-mécanismes-conséquences » et verticalement par des relations circulaires entre la motivation, le contrôle et la rationalisation de l’acteur. Comme le souligne Autissier [op. cit.], l’action se déroule dans un contexte où toutes les conditions ne sont pas connues de ses initiateurs. Cette méconnaissance est due à la réflexivité des conséquences dans un environnement d’interdépendance forte. En effet, la production ou la constitution de la société est un accomplissement de ses membres, mais qui prend place dans des conditions qui ne sont ni totalement intentionnelles, ni totalement comprises de leur part.

Ainsi définis les concepts inhérents aux acteurs et à l’action, il nous reste à comprendre comment cette dernière est structurée dans les contextes quotidiens. Trois concepts apparaissent alors comme constituant l’essence même de la théorie de la structuration : le structurel, la dualité du structurel et les systèmes sociaux.
2. La dualité du structurel

« Celui ou celle qui analyse des relations sociales doit pouvoir déceler deux dimensions syntagmatique et paradigmatique : la première fait référence au développement, dans l’espace-temps, de modèles régularisés de relations sociales qui engagent la reproduction de pratiques spatio-temporellement situées ; la seconde concerne un ordre virtuel de « modes de structuration » engagés de façon récursive dans des pratiques » [Giddens, op. cit. : 65].

Pour Giddens, la structure d’un système social n’existe pas indépendamment de son fonctionnement lequel est caractérisé par des interactions continues dans le temps. L’auteur préfère d’ailleurs utiliser le terme structurel à celui de structure afin de rejeter le caractère fixe et mécanique que tend généralement à avoir ce terme en sociologie. Ainsi, le structurel fait référence aux propriétés structurantes qui favorisent la capture de l’espace-temps dans des systèmes sociaux, à ces propriétés qui permettent que des pratiques sociales similaires persistent dans des étendues variables de temps et d’espace et qui donnent à ces pratiques un caractère systémique. Dans cette perspective, le structurel est d’ordre virtuel. Cela implique d’une part que les systèmes sociaux (entendus comme l’ensemble des pratiques sociales reproduites) n’ont pas des structures mais des propriétés structurantes et d’autre part que le structurel n’existe qu’en tant que présence spatio-temporelle lors de son actualisation dans les pratiques qui constituent les systèmes, et ce, sous la forme de traces mnésiques grâce auxquelles les agents compétents orientent leurs conduites. Le structurel se définit alors comme un ensemble de règles et de ressources engagées de façon récursive par les acteurs dans la reproduction sociale. Comme le souligne Giddens, « le structurel est hors du temps et de l’espace, à l’exception de son actualisation et de sa coordination sous la forme de traces mnésiques » [op. cit. : 74].
Dans la perspective défendue par Giddens, le structurel n’est ni un groupe, ni une collectivité ou une organisation [Rojot, 1998]. Ceux-ci se définissent pour autant comme des systèmes d’interaction disposant de propriétés structurelles. Les systèmes sociaux peuvent ainsi être définis comme des relations entre acteurs ou collectivités, reproduites et organisées en tant que pratiques sociales régulières. Les systèmes sociaux comprennent alors les activités situées spatio-temporellement d’agents humains qui reproduisent ces dernières dans le temps et l’espace, engageant de la sorte le structurel de façon récursive.
Selon Giddens [op. cit.], la constitution des agents et celle des structures ne sont pas deux faits indépendants : il s’agit d’une dualité. Ainsi, l’étude de la structuration des systèmes sociaux est celle des modes par lesquels ces systèmes, qui s’ancrent dans les activités d’acteurs compétents, situés dans le temps et dans l’espace et faisant usage des règles et des ressources dans une diversité de contextes d’action, sont produits et reproduits dans l’interaction de ces acteurs, et par elle. Selon le principe de la dualité du structurel, les propriétés structurelles des systèmes sociaux sont à la fois le médium et le résultat des pratiques qu’elles organisent de façon récursive. En d’autres termes, « les règles et les ressources utilisées par les agents dans la production et la reproduction de leurs actions sont en même temps les moyens de la reproduction du système social concerné. Le structurel est à la fois le moyen et le résultat de la conduite qu’il organise récursivement. Les propriétés structurelles des systèmes sociaux n’existent qu’hors de l’action, mais sont impliquées chroniquement dans sa production et sa reproduction » [Rojot, op. cit. : 13].
Les structures, quant à elles, sont les ensembles structurels propres à des systèmes sociaux donnés (ensembles de règles et ressources impliquées dans l’articulation d’un système social donné) [Rojot, op. cit. : 14] c’est-à-dire des ensembles isolables de règles et de ressources. Enfin, les principes structurels sont les traits structurels d’une société globale : ce sont les propriétés structurelles les plus profondément ancrées, celles qui sont engagées dans la production des totalités sociétales.
Étant donné que le structurel n’apparaît que comme mise en ordre virtuelle, l’étude de la dualité du structurel demande l’examen de ce que Giddens appelle « les axes de la structuration ou dimensions structurelles des systèmes sociaux » : la signification, la domination et la légitimation. Le lien action / structure peut ainsi être illustré de la façon suivante :

Figure 3 : Les dimensions de la dualité du structurel [Giddens, 1987]

Le structurel est ici défini par trois dimensions non perceptibles en tant que telles et que les acteurs activent au moyen de règles et de ressources pour les besoins de leurs actions.
La signification : elle est exprimée par des règles constitutives de sens. Les règles de sens constituent des schèmes interprétatifs institutionnels que les acteurs mobilisent dans le cadre de leurs interactions pour leur besoin d'action. Ces schèmes interprétatifs contribuent à produire une représentation ordonnée rationnellement de l'action, de son déroulement et de ses conséquences en fonction d'une finalité donnée. En définitive, la dimension "signification" se traduit par des configurations de représentations, modes de raisonnement, références communes, schèmes d'interprétation qui guident les actes des individus et les représentations qu'ils se font des actions d'autrui.
La légitimation : la dimension légitimation traite des normes d'action, des codes moraux et des valeurs qui permettent de justifier les actes [Chevalier-Kuszla, 1998]. Giddens montre en effet que toute interaction se déroule selon des règles gouvernant la conduite appropriée ou légitime à tenir. La légitimation s'exprime par des règles sanction, la sanction représentant l'opinion du corps social qui émet un jugement sur un acte par rapport à des valeurs qui peuvent être des lois nationales ou des conventions locales. Ainsi, lorsque les individus agissent, ils évaluent et sanctionnent leurs actions ainsi que celles des autres en s’appuyant sur différentes normes, maintenant ou modifiant de la sorte les structures de légitimation.
La domination : elle fait référence aux ressources d'autorité et d'allocation que les acteurs mobilisent dans l'action. Les ressources d'allocation sont constituées des divers moyens matériels ou immatériels accordés aux acteurs pour qu'ils contrôlent des objets. Les ressources d'autorité sont l'expression du pouvoir, elles permettent le contrôle des personnes ou des acteurs de l'organisation. Le pouvoir selon Giddens est considéré positivement comme la capacité à produire des résultats. Finalement, la variable domination a trait à la répartition des ressources d'autorité et d'allocation inhérente à l'institutionnalisation des rôles. En agissant, les individus s’appuient sur l’exercice du pouvoir en utilisant des facilités comme les capacités à contrôler des phénomènes matériels ou des personnes. De la sorte, ils renforcent ou modifient les structures de domination.

En résumé, le concept de dualité du structurel désigne cette influence mutuelle entre actions et propriétés structurelles. La structuration se définit alors comme le processus par lequel les propriétés structurelles sont produites et reproduites dans le temps et dans l’espace à travers la dualité du structurel.

La théorie de la structuration nous semble de ce point de vue prégnante et ce, à deux niveaux qui se complètent :
D’une part, en plaçant l’action au centre de son analyse, la théorie de la structuration permet d’appréhender dans un même cadre d’analyse les interactions entre acteurs à des niveaux de pratiques locales, situés dans l’espace et dans le temps et les tendances globales d’évolution des contextes sociaux plus larges dans lesquels ces pratiques s’inscrivent. En d’autres termes, elle nous enseigne que l’action des individus doit se comprendre en référence aux structurels qu’ils énactent dans leurs pratiques sociales récurrentes ;
D’autre part, ce cadre conceptuel permet d’expliquer comment la variété des contextes sociaux et des technologies peuvent se combiner pour conduire, suite à l’informatisation, à des pratiques différenciées [Groleau, 1999].

En définitive, deux apports des travaux de Giddens nous semblent particulièrement féconds ;
- A travers le concept de structuration, il s’agit d’appréhender les structures sociales sous l'angle du mouvement. En effet, la dualité du structurel s’exprime de deux façons différentes : (1) dans une vision circulaire de la construction du monde social, où les dimensions structurantes sont à la fois conditions et produits de l'action ; (2) comme l'affirmation que "le structurel est toujours à la fois contraignant et habilitant" et qu'il renvoie conjointement aux notions de contrainte et de compétence.
- Au-delà des dualismes classiques des sciences sociales, il s’agit d’adopter un nouveau prisme de lecture apte à expliquer que des évènements semblables puissent conduire à des résultats différents, que des actions intentionnelles puissent conduire à des conséquences non intentionnelles comme dans les cas d’implantation des SI.

Nous allons à présent analyser les travaux qui s’ancrent dans une perspective structurationniste pour effectuer l’analyse des liens technologie-organisation et spécifiquement ceux de Barley, DeSanctis et Poole et Orlikowski.
1.3.3.2. L’apport des travaux de Barley [1986]
Bien qu’analysant un objet de recherche spécifique, les scanners médicaux, les travaux de Barley sont considérés par les experts du champ des SI comme les premières contributions structurationnistes aux SI, et au-delà, comme les premières contributions à intégrer les technologies dans la théorie originelle de Giddens.
Dans le cadre de son étude, Barley analyse l’évolution des interactions au sein de deux unités de radiologie différentes. Son objectif consiste à comparer le processus de structuration caractérisant chacune d’elles à la suite de l’implantation d’une nouvelle technologie : les scanners médicaux. Plus spécifiquement, son analyse porte sur l’influence mutuelle entre d’une part, les actions de deux communautés d’acteurs formées par les techniciens et les radiologues, et d’autre part, les structures institutionnelles. Comme il le souligne dans le titre même de son article, l’auteur envisage alors l’implantation de cette nouvelle technologie comme une occasion de restructurer le système social existant.
Son analyse propose ainsi un modèle séquentiel du processus de structuration qui relie le royaume institutionnel et le royaume de l’action, et qui montre comment ces deux grands domaines, action et contraintes institutionnelles, se configurent l’une et l’autre.
 EMBED Diapositive Microsoft PowerPoint 
Figure 4 : Les mécanismes de structuration [Barley, 1986]
Comme le montre le schéma, Barley introduit dans le processus de structuration un nouveau concept, celui de script, lequel a pour objet spécifique de rendre compte de l’évolution des interactions dans le temps. Les scripts se définissent ainsi comme « des descriptions de modèles d’interactions récurrentes qui définissent, en termes observables et comportementaux, l’essence des rôles des acteurs. Tels que l’on peut les observer dans la dynamique des comportements, les scripts apparaissent comme des agrégats de types de rencontres dont la répétition constitue le cadre de l’interaction » [Barley, ibid.. : 83]. Pour Barley, la récurrence des scripts peut expliquer le processus par lequel se construisent et évoluent les propriétés structurelles d’un groupe [Giordano et Groleau, 2004].
Dans son exemple, Barley note les scripts qui apparaissent et qui perdurent au sein des deux équipes et montre de cette façon l’émergence de nouveaux rapports entre techniciens et radiologues. En effet, au fil des usages des scanners médicaux, les scripts d’interaction deviennent plus favorables aux techniciens. Ceux-ci acquièrent de nouvelles marges de manœuvre grâce à leur maîtrise technique des scanners, compétences qui échappent quant à elles à l’expertise des médecins. En outre, il met en relief les différences institutionnelles qui se créent entre les deux équipes alors même qu’elles sont confrontées à une même technologie : ici, l’introduction des scanners médicaux dans chacune des organisations a provoqué un changement structurel en altérant les rôles et les patterns institutionnalisés d’interactions.

Au final, Barley défend l’idée d’une technologie définie comme un objet social dont le sens prend racine dans son contexte d’utilisation. Selon lui, les technologies « sont plutôt considérées comme des occasions qui déclenchent une dynamique sociale, qui, à son tour, modifie ou maintient les contours d’une organisation » [Barley, ibid. : 81].
Cependant, tandis que Barley accepte l’idée selon laquelle la technologie est, à un certain niveau, un construit social, il refuse l’idée selon laquelle elle pourrait connaître des modifications physiques au cours du temps et de l’usage. Définir la technologie exclusivement comme objet social implique pour cet auteur de ne pas prendre en considération les modifications physiques que peut subir la technologie pendant son usage. Il laisse ainsi peu de place à l’artefact technologique en tant que tel et au potentiel que possède celui-ci d’influencer les interactions au sein d’un collectif.
Cette définition de la technologie est propre aux travaux de Barley [1986] et apparaît comme un point de désaccord avec les autres auteurs du courant structurationniste. Nous rejoignons ainsi les critiques effectuées par Orlikowski [1992] qui note à juste raison que le cas des scanners médicaux est particulier car il s’agit de technologies possédant des fonctions et caractéristiques relativement fixes et standardisées. Or, cette vision ne peut être généralisée à l’ensemble des technologies (notamment les technologies informatiques). Elle est également partagée par les auteurs du courant de la cognition distribuée qui mettent largement en exergue l’importance de la représentation des connaissances dans les artefacts cognitifs. Ainsi, même si les technologies possèdent à un instant t des formes et fonctionnalités identifiées, celles-ci peuvent être modifiées, soit par les divers usagers qui utilisent la technologie, selon les contextes d’usage mais également au cours du temps par les actions répétées d’un même usager.
Dans cette optique, le modèle technologique de Barley reflète une part de déterminisme technologique, la technologie nouvellement implantée déclenchant nécessairement des modifications structurelles. Barley revendique d’ailleurs lui-même une forme de déterminisme doux dans son analyse, tout se passant comme si la technologie était un déclencheur occasionnant une certaine dynamique sociale et dont les conséquences seraient pour partie prévues et pour partie non anticipées.

Au total, les travaux de Barley présentent un intérêt pour les raisons suivantes :
- Le modèle de Barley est le premier à prendre appui sur la métaphore structurationniste pour expliquer des liens technologies-organisation.
- Ainsi, si ce modèle permet de mettre en évidence l’influence des technologies dans la constitution/reconstitution des pratiques institutionnelles, il ne conçoit pas, en revanche, l’influence des usagers sur la technologie. Il rejoint ainsi, de façon très nuancée, les approches déterministes évoquées précédemment.

Toutefois, les travaux structurationnistes faisant suite aux recherches de Barley vont adopter un positionnement différent, tentant de réintégrer les dimensions sociales et matérielles de la technologie. Tel est le cas de la théorie adaptative de DeSanctis et Poole que nous allons à présent analyser.
1.3.3.3. La théorie de la structuration adaptative
Le paradoxe de la productivité des TI, selon lequel un investissement accru en technologies informatiques ne garantit pas nécessairement une progression en conséquence de la productivité, a été à l’origine de nombreux travaux en SI. Fort de ce constat, des chercheurs ont en effet émis l’idée selon laquelle les effets des technologies de l’information sont moins corrélés à la technologie elle-même qu’aux usages qu’en font les individus.
Les travaux de DeSanctis et Poole, à l’instar de ceux d’Orlikowski, trouvent leur origine parmi ces préoccupations. Plus spécifiquement, DeSanctis et Poole proposent la théorie de la structuration adaptative (TSA) comme cadre pour étudier l’influence mutuelle entre technologie et processus sociaux.
Dans cette perspective, DeSanctis et Poole placent deux concepts au cœur de leur analyse, la structuration de Giddens et l’appropriation (cf. supra), qui fournissent un cadre dynamique permettant d’appréhender les processus par lesquels les individus intègrent des technologies avancées dans leurs pratiques de travail. Pour ces auteurs, ces processus sont les facteurs clés de changements organisationnels. Ils rejoignent ainsi les présomptions d’Orlikowski [1992] qui stipule, à travers le concept de dualité du structurel, une influence mutuelle entre les structures inhérentes aux technologies avancées et les structures émergentes lors de l’interaction entre les individus et les technologies.
Afin d’éprouver leur cadre théorique, DeSanctis et Poole simulent une expérimentation sur un petit groupe d’individus qui utilisent un système d’aide à la décision de groupe (GDSS). Cette technologie est considérée comme une technologie informatique avancée qui combine à la fois des structures de traitement de l’information, de communication ou encore d’aide à la décision, destinées à aider le groupe à trouver de nouvelles idées, à planifier, à résoudre des problèmes, à faire des choix, parfois en s’appuyant sur les possibilités de modélisation du système.

Dans son étude des systèmes d’aide à la décision de groupe, la TSA se fixe comme objectif de fournir un modèle qui décrive les influences mutuelles entre les technologies de l’information, les structures sociales et les interactions humaines. L’approche de DeSanctis et Poole considère ainsi l’influence de deux grands types de structures sociales :
La première qu'ils appellent « structures sociales dans la technologie », est constituée d’un « esprit » et de « caractéristiques structurelles ».
Les « structures sociales dans l’action » constituent le second type : il s’agit des différentes ressources insérées dans un cadre social très large : normes groupales, environnement institutionnel et organisationnel, tâches à effectuer, caractéristiques de l’acteur interrogé ...

L’approche de la TSA propose alors de comprendre les liens entre les structures enchâssées dans la technologie et les structures sociales qui émergent dans l’interaction. Pour ce faire, elle propose une conceptualisation originale de la technologie et de son appropriation, et aboutit dans le même temps à une modélisation détaillée du principe de structuration adaptative. Ce sont ces trois éléments que nous allons présenter successivement.
1. Une conceptualisation originale de la technologie : entre caractéristiques structurelles et esprit de la technologie
Il est important de noter au préalable que les approches structurationnistes de la technologie se sont majoritairement concentrées sur l’analyse de technologies informatiques dites avancées. Celles-ci ont la particularité, en plus des fonctionnalités classiques d’accomplissement de tâches, de proposer à la fois des supports à la coordination de groupes et des fonctionnalités pour permettre les échanges interpersonnels. En ce sens, les technologies de l’information avancées enchâssent des structures sociales qui facilitent et contraignent l’action sur les lieux de travail.
Selon DeSanctis et Poole [ibid.], ces structures sociales enchâssées dans la technologie revêtent deux formes : (1) les caractéristiques structurelles et (2) l’esprit de la technologie.

les caractéristiques structurelles
Il s’agit des règles et ressources spécifiques offertes aux utilisateurs par le système. Dans le cas des GDSS analysé par DeSanctis et Poole, les caractéristiques structurelles renvoient à l’ensemble des fonctionnalités proposées aux utilisateurs telles que l’enregistrement anonyme de données, le recueil périodique de commentaires ou encore des algorithmes de votes …
Selon la TSA, ces caractéristiques induisent la manière dont l’information peut être recueillie, manipulée ou gérée par les utilisateurs. En ce sens, elles sont porteuses à la fois de sens (de signification selon Giddens) et de contrôle (domination) dans l’interaction.
Ainsi, DeSanctis et Poole proposent de décrire et d’étudier les technologies de l’information avancées en examinant notamment les caractéristiques structurelles qui lui ont été conférées pendant sa phase de conception. Ils notent en outre que ces caractéristiques peuvent être combinées de façon diverses et proposent, à partir des travaux antécédents, un ensemble de dimensions significatives qui reflètent ces différentes combinaisons. Parmi ces dimensions, DeSanctis et Poole retiennent par exemple celle de restrictivité (« restrictiveness ») : plus un système est restrictif, plus l’ensemble des actions possibles qu’un utilisateur puisse entreprendre est limité. Ils considèrent également le degré de sophistication des GDSS et distinguent trois niveaux : le degré 1, assez limité, où le système ne fournit que des supports à la communication ; au second degré le système offre des modèles d’aide à la décision ; enfin, le degré 3 où le système intègre des fonctionnalités permettant de spécifier des règles afin que le groupe puisse développer et appliquer des procédures spécifiques d’interaction.
Définir la technologie à partir de ces caractéristiques structurelles permet de délimiter le champ des actions possibles pour les usagers. Elles n’expliquent pour autant pas que des technologies informatiques analogues implémentées dans un même contexte induisent des changements organisationnels différents. De ce fait, DeSanctis et Poole introduisent un deuxième concept pour définir les structures sociales de la technologie : l’esprit de la technologie.

l’esprit de la technologie
L’esprit fait référence à l’intention générale, c’est-à-dire aux buts et valeurs qui supportent la technologie. Il correspond à la ligne de conduite officielle à adopter par l’utilisateur, aux finalités qui lui sont assignées. Par exemple, un esprit démocratique se matérialise en une technologie qui permet à ses usagers de voter secrètement. L’esprit peut également se définir comme une « intention générale définissant un cadre de normalisation et de légitimation de l’utilisation de l’outil » [DeVaujany, 2001 : 68]. En ce sens, l’esprit participe à la légitimation en fournissant des cadres normatifs aux comportements appropriés dans le contexte de la technologie, à la signification en aidant les usagers à comprendre et interpréter le sens d’une technologie, ou encore à la domination car il présente les types de manœuvre d’influence qui peuvent être utilisés avec la technologie.
L’esprit est donc une propriété de la technologie qui permet de répondre aux questions suivantes : quels sont les buts promus par la technologie ? Quelles sont les valeurs inscrites dans la technologie ? Cet esprit ne doit cependant ni être réduit aux intentions des designers qui sont certes reflétées dans la technologie mais impossibles à saisir entièrement, ni aux interprétations des utilisateurs qui donnent des indications sur cet esprit mais de façon limitée. Dans cette perspective, l’esprit de la technologie tel que défini par la TSA semble difficile à saisir. DeSanctis et Poole proposent ainsi de le traiter comme un texte et de développer une lecture de sa ‘philosophie sous-jacente’ en analysant les cinq facettes suivantes :
La métaphore sous-jacente au système
Les fonctionnalités qu’elle incorpore et comment celles-ci sont nommées et présentées
La nature des interfaces utilisateurs
Les matériaux de formation et les structures d’aide en ligne
Les autres formations et aides fournies par le système.
Les résultats de ce type d’analyse, issus d’une triangularisation des interprétations des acteurs utilisant la technologie, peuvent conduire à des contradictions qui décrivent, selon les auteurs, le fait que l’esprit est incohérent. Ainsi, les auteurs expliquent qu’on s’attend généralement « à ce qu’un esprit cohérent canalise les usages de la technologie dans des directions définies. En revanche, on s’attendra plutôt à ce qu’un esprit incohérent exerce une influence faible sur le comportement des utilisateurs. Un esprit incohérent peut aussi envoyer des signaux contradictoires, rendant l’utilisation du système plus difficile » [DeSanctis et Poole, 1994 :127].

Soulignerons enfin que DeSanctis et Poole [ibid..], même s’ils préconisent de ne pas réduire l’esprit de la technologie aux intentions des designers, notent à juste titre que lorsque la technologie est récente, l’esprit correspond aux intentions des designers et peut être facilement analysé. Il répond dans ce cas à la question de savoir comment la technologie doit être utilisée. En revanche, une fois la technologie implémentée, l’organisation contribue à la définition de l’esprit. L’esprit est dans cette perspective un flux, et ne pourra être considéré comme relativement stable que lorsque la technologie elle-même aura atteint une stabilité dans son développement et qu’elle sera utilisée de façon routinière.

Au final, DeSanctis et Poole montrent que les structures sociales d’une technologie peuvent être décrites selon deux modalités : leur esprit et leurs caractéristiques structurelles qui expliquent que des formes différentes d’interactions sociales peuvent apparaître.
Il convient ici de rappeler qu’il existe d’autres structures sociales que celles de la technologie. L’environnement organisationnel mais aussi le contenu et les contraintes d’une pratique de travail sont également des structures sociales. Ainsi, les structures sociales fournies par la technologie peuvent être utilisées directement, mais elles sont le plus souvent énactées en combinaison avec d’autres. L’usage des technologies, donc de leurs structures sociales, combiné avec d’autres sources de structures, pourra conduire à un renouvellement des structures sociales au cours de l’interaction. C’est justement ce phénomène qui va précisément être placé au cœur de la problématique de la TSA : comprendre comment ces nouvelles structures vont émerger et quelles sont leurs compatibilités avec l’esprit de la technologie ? Cette problématique est étudiée à travers un deuxième concept clé, celui de l’appropriation.
2. L’appropriation de la technologie
Dans les perspectives structurationnistes, le concept d’appropriation revêt un sens différent et plus précis que celui défini par les sociologues des usages. En effet, au-delà de la simple dimension instrumentale de l’usage, les auteurs structurationnistes définissent l’appropriation d’une technologie comme « les actions immédiates et visibles de l’usage, et qui attestent de processus de structuration plus profonds » [DeSanctis et al., 1991 : 9]. En ce sens, ils ne limitent pas leur analyse à l’appréhension des interactions entre l’individu et la technologie dans une vision instrumentale. Ils l’élargissent à la production et à la reproduction des structures sociales (à la fois de la technologie mais aussi de contexte institutionnel) lorsque les individus vont l’utiliser. Les auteurs notent d’ailleurs que l’appropriation n’est pas automatiquement et spécifiquement déterminée par le design de la technologie.
Cette nouvelle acception de l’appropriation permet aux auteurs de la TSA d’émettre la proposition suivante : de nouvelles structures sociales émergent dans les interactions de groupe au fur et à mesure que les règles et ressources d’une technologie informatique avancée sont appropriées dans un contexte donné et donc reproduites dans l’interaction au cours du temps.
Plus spécifiquement, DeSanctis et Poole identifient quatre aspects de l’appropriation qui influencent les interactions de groupe :
Les modes d’appropriation décrivent la façon dont les individus choisissent de s’approprier les caractéristiques structurelles d’une technologie. En effet, étant donné les structures sociales de la technologie, les groupes peuvent choisir (i) de reprendre directement les structures ; (ii) de rapprocher les structures d’autres telles celles de l’environnement ou d’une tâche, (iii) de contraindre ou interpréter les structures quand ils les utilisent, enfin (iv) d’émettre des jugements sur les structures, en affirmant ou niant par exemple leur réalité.
La fidélité est le second aspect de l’appropriation. Elle s’analyse en rapport avec l’esprit de la technologie : ainsi, si les caractéristiques d’une technologie sont conçues dans le but de promouvoir l’esprit de la technologie, elles sont toutefois indépendantes de celui-ci et peuvent être appropriées sans faire preuve de fidélité à l’esprit de la technologie. La fidélité décrit donc le degré de conformité de l’appropriation étudiée avec l’esprit de la technologie tel qu’il est promu par les designers puis les membres de l’organisation. Dans cette perspective, l’appropriation peut être fidèle ou infidèle. Il est toutefois important de noter qu’une appropriation infidèle à l’esprit de la technologie n’est pas qualifiée de mauvaise ou d’impropre. Elle est juste en dehors de l’esprit promulgué par la technologie.
Les usages instrumentaux traduisent les buts ou le sens que des groupes assignent à une technologie lorsqu’ils l’utilisent. Pour DeSanctis et Poole, identifier ces usages instrumentaux permet de comprendre quelles structures sont utilisées et comment, et au-delà, pourquoi elles le sont. DeVaujany [2001] souligne ainsi que ces usages instrumentaux sont des usages de premier degré, une sorte d’intention dans l’action. Il est alors possible de distinguer les usages centrés tâche, les usages centrés processus ou encore les usages centrés pouvoir … [DeSanctis et al., 1991].
DeSanctis et Poole proposent enfin les attitudes affichées par les utilisateurs comme dimension de l’appropriation. Celles-ci peuvent être de plusieurs sortes : la confiance par rapport à l’usage de l’outil, le degré auquel les utilisateurs la perçoive comme utile ou encore leur propension à travailler dur et à exceller quand ils utilisent la technologie.

Ces différentes dimensions doivent, selon les auteurs de la TSA, être analysées à trois niveaux distincts [Poole et DeSanctis, 1994 : 134] :
Le niveau micro qui « examine l’appropriation des structures d’une technologie telle qu’elle apparaît dans les phrases, les tournures du discours, ou d’autres actes spécifiques du discours ».
Le niveau intermédiaire qui permet « d’identifier les modes d’appropriation les plus persistants et typiques d’un groupe sur une période ». Les objets d’analyse sont ici les conversations, les réunions et documents. Il s’agit d’identifier « des formes systématiques dans la façon dont un groupe s’approprie les structures d’une technologie, en incluant des modes d’appropriation dominants, le degré de fidélité des appropriations ainsi que les usages instrumentaux et les attitudes associés au processus d’appropriation ».
Enfin le niveau institutionnel qui requiert une analyse longitudinale des discours sur la technologie. Le but est ici « d’identifier des modèles persistants de business units (la production versus le marketing par exemple), de profils d’utilisateurs (hommes versus femme) ou encore d’organisations (manufactures versus entreprises de service) ». Il s’agit véritablement d’un « méso-niveau » et qui correspond au niveau le plus souvent analysé dans les perspectives structurationnistes. Ici, l’objectif consiste essentiellement à identifier « des changements persistants dans les comportements après l’introduction d’une technologie, comme des réorientations dans la description de problèmes, dans les prises de décision ou encore dans les légitimations des choix ».

DeSanctis et Poole notent enfin que des facteurs peuvent influencer la façon dont un groupe s’approprie les structures sociales disponibles. Ces facteurs sont au nombre de quatre. Il s’agit du style d’interaction entre les membres (par exemple le style du leader), du degré d’expérience et de connaissance des membres sur les structures encastrées dans la technologie, du degré perçu par les individus que les autres membres connaissent et acceptent l’usage des structures, et enfin, du degré d’accord entre les membres sur les structures qui peuvent être appropriées.
Chacun de ces éléments, les dimensions de l’appropriation, la définition de la technologie, …, concourent à formuler un véritable modèle de la théorie de la structuration adaptative.
3. Le modèle de la théorie de la structuration adaptative
Ce modèle articule sept propositions théoriques qui découlent directement des deux concepts clés que nous venons d’analyser : la technologie et son appropriation. Sa schématisation offre la possibilité de décrire les interrelations entre les technologies de l’information avancées, les structures sociales et l’interaction sociale. En outre, cette modélisation va servir, selon DeSanctis et Poole, à construire un agenda de recherche pour investir chacun des aspects du modèle.
Proposition 1Les technologies de l’information avancées (TIA) fournissent des structures sociales qui peuvent être décrites en termes de caractéristiques structurelles et d’esprit. Dans la mesure où ces TIA varient dans leur esprit et leurs caractéristiques, des formes différentes d’interaction sociale sont encouragées.Proposition 2L’utilisation des structures des TIA peut varier selon la tâche, l’environnement, et d’autres contingences qui offrent des sources alternatives de structures sociales.Proposition 3De nouvelles sources de structures émergent lorsque la technologie, la tâche et les structures environnementales sont appliquées au cours des interactions sociales.Proposition 4De nouvelles structures sociales émergent dans les interactions d’un groupe lorsque les règles et les ressources des TIA sont appropriées dans un contexte donné et donc reproduites dans l’interaction de groupe au cours du temps.Proposition 5Les processus de décision de groupe varieront en fonction de la nature des appropriations des TIA.Proposition 6La nature des appropriations des TIA variera en fonction du système interne du groupe.Proposition 7Etant donné (1) les TIA et les autres sources de structure sociale, n1 … nk, (2) les processus idéaux d’appropriation, et (3) les processus de décision cohérents avec la tâche en cours, alors les processus sociaux finaux seront conformes à ceux souhaités par les gestionnaires du système.Tableau 2 : les propositions de la TSA [DeSanctis et Poole, ibid..]


Figure 5 : Modélisation des concepts et propositions de la TSA [DeSanctis et Poole, ibid.]
Ce schéma offre une vision synthétique des apports de la TSA. Il montre qu’il existe quatre sources de structures : les technologies de l’information avancées, les tâches, l’environnement organisationnel et le système interne de groupe. Ces sources sont représentées par des cases grises. Elles agissent comme des opportunités et des contraintes à l’interaction sociale, notamment par le biais de l’appropriation.
Ces sources peuvent déclencher des processus de structuration adaptative qui, dans le temps, sont à même de conduire à des changements dans les règles et les ressources mobilisées au cours des interactions sociales.
Pour DeSanctis et Poole [1994], il y a une dialectique du contrôle entre les groupes de travail et la technologie : les structures de la technologie influencent le groupe de travail (P1), mais le groupe de travail construit également ses interactions (P6) exerçant alors un contrôle sur l’usage des structures de la technologie et des nouvelles structures qui en émergent (P3). Dans ce contexte, le changement organisationnel émerge graduellement, au cours du temps, au fur et à mesure que les structures de la technologie sont appropriées et qu’elles apportent des changements dans les processus de décision. Au final, ce long processus peut mener à l’émergence de nouvelles structures sociales (P4) qui s’institutionnaliseront dans le temps.
Loin des approches déterministes, les auteurs précisent « qu’il est impossible de prédire clairement la manière dont les structures de la technologie seront appropriées, et quels seront les résultats de ces appropriations » [DeSanctis et Poole, ibid.. :131]. Aussi, comme le souligne Virgili [2005], les propositions de l’AST doivent être davantage considérées comme des descriptions de processus et/ou de dynamiques sociales que comme des propositions au sens classique du terme.
En revanche, de nombreux auteurs ont vivement montré les incohérences entre les propositions de la TSA et la tradition structurationniste [Jones, 1999 ; DeVaujany, 2001 ; Virgili, 2005 ; Rose, 2002]. Ces critiques portent sur trois niveaux :
Le choix de la méthode : les conditions expérimentales elles-mêmes limitent la possibilité de structuration interne. En effet, selon Taylor et al. [2001], l’institutionnalisation de la structure, qui transcende les limites de temps et d’espace, ne peut être capturée par de brèves séquences d’interaction de groupe.
L’existence de liens de causalité entre les structures de la technologie et les effets sur l’interaction sociale : à ce niveau, nous constatons une incohérence forte avec les travaux de Giddens.
La notion de structures enchâssées dans la technologie : selon Orlikowski [2000], cette notion s’oppose à l’idée d’une existence virtuelle des structures telle que mise en évidence dans l’approche de Giddens.

Même si ce modèle connaît de nombreuses critiques, souvent très virulentes, il nous semble pour autant qu’il souligne un aspect de la technologie et des usages non encore analysé soit par les sociologues des usages soit par les tenants de la cognition distribuée. Or, ceci nous paraît important pour notre problématique de recherche notamment en ce qui concerne la définition de la technologie. En effet, même si la conception de solutions technologiques n’est absolument pas traitée par DeSanctis et Poole, ils envisagent, à travers leur notion d’esprit de la technologie, que les designers d’un système technique « incorporent » un ensemble de structures sociales et de propriétés symboliques dans la technologie pendant sa phase de développement. Cet esprit de la technologie, au départ simple reflet des structures sociales inscrites par les designers, est par la suite énacté par les usagers qui s’y réfèrent pour s’approprier la technologie. Ici, l’esprit est important pour les utilisateurs puisqu’il est une des sources qui va leur permettre, au début, de réduire l’équivocité de la technologie [Weick, 1990]. Pour les designers, il s’agit alors de faire en sorte que celui-ci coïncide avec les structurels énactés par les utilisateurs de telle sorte qu’ils s’approprient la technologie avec une certaine fidélité. Pour rappel, DeSantis et Poole montrent en effet qu’un esprit cohérent canalise les usages de la technologie dans des directions définies tandis qu’un esprit incohérent exerce une influence faible sur le comportement des utilisateurs et peut même envoyer des signaux contradictoires, rendant l’utilisation du système plus difficile.
Nous souhaitons également souligner que l’usage a pris dans cette approche une épaisseur supplémentaire. Il ne se définit en effet plus comme l’interaction « instrumentale » entre un individu et une technologie mais comme les actions immédiates et visibles qui mettent en évidence des processus de structuration plus profonds. En ce sens, la technologie n’est plus seulement un élément physique mais se conçoit comme une série de contraintes et d’habiletés réalisées en pratique par l’appropriation de la technologie.
Enfin, il est intéressant de noter à l’instar de Lea et al. [1995] la proximité entre la TSA et la sociologie de l’innovation de Callon et Latour appliquée à l’appropriation de technologies de l’information. En effet, selon ces auteurs, dans la perspective de Callon et Latour comme dans le cadre de la TSA, « la conception n’est pas fixée dans la période traditionnelle de développement. Au contraire, la flexibilité d’interprétation de la technologie signifie que sa conception continue à évoluer durant sa diffusion, sa mise en oeuvre, et son utilisation » [Lea et al., 1995 : 471] . De plus, il est important de retenir que la technologie est entendue comme un artefact physique ayant des propriétés distinctes, et dont le design et l’usage sont construits socialement [Groleau, 1999].
Au total, la TSA met en évidence les points suivants :
- la technologie (à travers ces structures enchâssées) et les actions interagissent réciproquement, pouvant conduire à terme à l’émergence de changements organisationnels. Ici, la technologie n’est pas fixe mais évolue en fonction des processus d’appropriation des acteurs.
- la technologie est définie comme la combinaison de caractéristiques structurelles et d’un esprit, ce qui confère au processus d’appropriation par les usagers une dynamique.
- deux points de convergence par rapport aux principes même de la structuration : (1) des comportements d’usage qui fournissent nécessairement les résultats escomptés ; (2) une simulation d’expérimentation sur un groupe d’usagers est préférée à une réelle expérimentation en contexte ce qui limite la possibilité de structuration interne.

La TSA présente énormément de points communs avec les travaux d’Orlikowski et son modèle structurationnel. Ceux-ci ont d’ailleurs été le point de référence des développements de la TSA. Cependant, les travaux récents d’Orlikowski s’avèrent être un véritable tournant pour les travaux structurationnistes sur l’informatisation en milieu organisationnel et méritent à présent d’être étudiés. Cette raison nous a conduit à présenter ces travaux à la suite de ceux de DeSanctis et Poole plutôt que d’opter pour une démarche chronologique.
1.3.3.4. Orlikowski et le modèle structurationnel
Ce champ de recherche fait l’objet de nombreux travaux regroupant des travaux aussi variés que ceux de Yates, Robey ou encore Beath encore ceux d’Orlikowski, véritable figure de proue. Initiés par les articles d’Orlikowski et Robey [1991] et Orlikowski [1992], cette approche semble aujourd’hui atteindre un nouveau tournant avec le récent article d’Orlikowski [2000] dans lequel l’auteur, partant d’une critique de DeSanctis et Poole [1992] et de ses propres travaux, suggère une reformulation théorique qu’elle veut plus fidèle à la théorie de la structuration.
Nous commencerons par exposer les premiers écrits d’Orlikowski et son modèle structurationnel. Puis, nous mettrons en évidence les changements qu’implique son article de 2000.

1. Orlikowski et la dualité de la technologie

Orlikowski et Robey [ibid..] et Orlikowski [ibid..] attachent, dans leurs deux articles fondateurs, une importance prégnante à la définition de la technologie. Celle-ci, non présente dans les travaux initiateurs de Giddens, est centrale et va servir de fondement à la majorité des travaux structurationnistes qui lui succéderont, comme par exemple ceux de DeSanctis et Poole [1994].
A partir d’une critique des modèles de l’impératif technologique, du choix stratégique ou encore de la technologie comme déclencheur de changements organisationnels, Orlikowski propose d’appréhender la technologie sous deux angles complémentaires : comme le fruit de la création et des modifications des individus d’une part, et comme un médium utilisé par les individus pour agir d’autre part. Deux notions clés permettent ainsi de définir la technologie : sa dualité et sa flexibilité interprétative.

La dualité de la technologie
Selon le principe de la dualité de la technologie, la technologie est à la fois le résultat et le médium de l’action humaine. En effet, la technologie est construite physiquement par les acteurs qui travaillent dans un contexte social donné et socialement à travers les différentes significations qu’ils lui attachent et les différentes caractéristiques qu’ils utilisent. Ici, la technologie est un construit social résultant de l’action humaine et des propriétés structurelles du système organisationnel. Au-delà, elle est utilisée pour l’action et contribue de ce fait à la production et la reproduction des propriétés structurelles de l’organisation.

La flexibilité interprétative
Selon Orlikowski, distinguer les phases de développement et d’usage d’une technologie est artificiel dans la mesure où les individus exercent continuellement un contrôle sur celle-ci. Elle rejoint ici les auteurs du CSI qui montrent que la conception d’une innovation technologique est largement dépendante de celle du réseau sociotechnique, et donc des trajectoires d’usage qui se nouent autour de celle-ci.
Orlikowski propose ainsi de considérer la technologie comme munie d’une flexibilité interprétative dans son rapport avec les individus. Ainsi, à l’instar de Pinch et Bijker [1984], elle définit la flexibilité interprétative comme le degré d’engagement des acteurs dans la constitution physique et sociale de la technologie, aussi bien en phase de développement que d’usage. Cette flexibilité interprétative n'est pas infinie : elle est conditionnée par les caractéristiques matérielles de la technologie et le contexte institutionnel.

Dualité et flexibilité forment le socle sur lequel Orlikowski s’appuie pour construire son modèle. Celui-ci peut être schématisé de la façon suivante :
 SHAPE 
Figure 6 : le modèle structurationnel de la technologie [Orlikowski, 1992]
Dans ce schéma, les flèches représentent des liens entre les différents composants du modèle structurationnel à savoir la technologie, les acteurs humains (les designers, usagers ou décideurs) et les propriétés institutionnelles de l’organisation. Le modèle d’Orlikowski doit ainsi se comprendre de la façon suivante :
la technologie est le produit de l’action humaine : elle est le résultat du design, du développement, des modifications et de l’appropriation de l’action humaine. Elle n’existe que par l’usage et l’appropriation des individus.
La technologie est le médium de l’action humaine, en ce sens, elle facilite et contraint l’action.
Les propriétés institutionnelles influencent les interactions technologie / acteur humain.
Les interactions médiatisées par la technologie influencent à leur tour les propriétés institutionnelles. De ce point de vue, Orlikowski adhère aux travaux de Weick et définit la technologie comme un environnement énacté dont la construction et l’usage sont conditionnés par les structures de domination, légitimation et signification d’une organisation et dont l’appropriation implique le changement ou le renforcement de chacune de ces dimensions institutionnelles.
Au final, parce qu’il accorde un rôle central à la structuration, le modèle d’Orlikowski s’oppose aux modèles antérieurs traitant du lien technologie-organisation. La structuration, entendue ici comme un processus dialectique et dynamique encastré historiquement et contextuellement, conduit à la production et la reproduction des propriétés institutionnelles dans l’interaction technologie-agent humain.
Il convient de souligner qu’Orlikowski adopte un point de vue particulier sur la technologie et qui consiste à stipuler qu’une technologie n’est technologie que dans l’action. En d’autres termes, cela signifie que la technologie en elle-même n’a que peu de valeur. Ce n’est que lorsque les individus se l’approprient qu’elle joue un rôle significatif et peut exercer une influence.
Notons enfin que l’appropriation adopte dans ce modèle une définition totalement différente des autres courants de recherche. En effet, l’appropriation s’entend ici comme la simple action d’un individu sur une technologie, que ce soit à des fins productive ou symbolique. Orlikowski abandonne donc toute idée d’appropriation comme adoption des propriétés techniques d’une technologie a contrario des approches sociologiques de l’appropriation ou encore de celle de la cognition distribuée.

2. Orlikowski [2000] : l’accent mis sur la pratique

Dans son article de 2000, Orlikowski revient sur les travaux qu’elle avait entrepris antérieurement et qui traitaient, comme nous venons de l’exposer, des liens entre la technologie et les organisations et plus spécifiquement des usages de la technologie. Ici, Orlikowski souhaite être plus proche des fondements de la théorie de la structuration et reconnaît que les concepts développés jusqu’à présent dans la majorité des travaux structurationnistes traitant des usages de la technologie souffrent de lacunes qui viennent contredire la philosophie de Giddens. Deux soubassements théoriques doivent selon Orlikowski [ibid.] être remis en question : les notions de structures enchâssées dans la technologie et celle d’appropriation par les utilisateurs.

Structures enchâssées versus structures émergentes
Les développements de la perspective structurationniste de la technologie se sont largement inspirés des travaux des socioconstructivistes [Bijker et Law, 1992 ; Bijker et al., 1987 ; Callon et al., 1988] notamment pour ce qui a trait à la définition de la technologie, concept absent dans la théorie originelle de Giddens. Pour ces derniers, la technologie est construite socialement et s’adapte, au cours de son développement, aux différents groupes sociaux avec lesquels elle interagit. Il s’agit ainsi, pour les auteurs de ce courant, d’analyser comment les interprétations, les intérêts sociaux ou encore les conflits, donnent forme à la technologie mais également à comprendre comment la technologie devient stable après son développement.
Selon Orlikowski [2000], cette prise d’appui sur les concepts socioconstructivistes est porteuse de fortes contradictions avec la philosophie structurationniste pour deux raisons essentielles.
D’une part, la proposition selon laquelle la technologie serait stable après son développement ne permet pas de tenir compte des actions des utilisateurs sur la technologie qui peuvent, dans l’interaction, redéfinir voir modifier les significations, propriétés ou applications de celle-ci. Même si cette contradiction est levée par le postulat de flexibilité interprétative, le fait de supposer que des structures sont enchâssées dans la technologie implique de la concevoir comme un artefact stable et solide, porteur de structures fixes et déterminées, disponibles aux utilisateurs.
D’autre part, cette prise d’appui est problématique d’un point de vue conceptuel puisqu’elle invite à stipuler que des structures sont enchâssées dans la technologie pendant son développement, leur conférant de la sorte une existence matérielle que Giddens dénie explicitement, insistant surtout sur leur virtualité.
Ainsi, selon Orlikowski [2000], les caractéristiques techniques, une fois inscrites dans la technologie, sont extérieures à l’action humaine. C’est bien parce qu’elles sont inscrites dans la technologie qu’elles ne peuvent être assimilées à des règles ou des ressources, donc à des structures. En revanche, lorsque ces propriétés techniques sont régulièrement mobilisées dans l’action, elles l’influencent et la structurent. En ce sens, celles-ci s’apparentent à des règles et des ressources qui agissent dans la constitution de certaines pratiques sociales récurrentes.
Les structures de la technologie ne sont donc pas enchâssées mais émergentes. En ce sens, la technologie est « au mieux un élément de structuration potentiel, au pire un ensemble de bits, de programmes, de codes et de données… » [Orlikowski, 2000].

Appropriation versus énaction
Jusqu’à présent, les modèles structurationnistes de la technologie examinaient l’usage à travers la façon dont les individus s’appropriaient les structures enchâssées dans la technologie. Ces modèles présupposaient ainsi l’existence de structures externes, indépendantes des individus, et analysaient les différents types d’appropriation qui pouvaient consister soit à maintenir, préserver, combiner, contraindre … les structures inscrites dans la technologie.
Penser les structures comme émergentes et non enchâssées modifie cependant ce prisme de lecture. Orlikowski [2000] préfère ainsi substituer le terme d’énaction à celui d’appropriation. Elle réhabilite de la sorte l’action humaine en lui conférant un rôle central : au lieu de placer la technologie au centre de l’analyse et d’étudier comment les individus s’approprient ces structures incorporées, elle part de l’action humaine et étudie comment les individus énactent les structures émergentes de la technologie dans leurs interactions récurrentes. Ici, les structures ne sont ni indépendantes, ni externes aux individus ; elles ne sont pas enchâssées dans une technologie attendant simplement que des individus se les approprient. Au contraire, les structures sont virtuelles, elles émergent des interactions répétées et situées entre la technologie et les individus.
Dans cette perspective, Orlikowski [2000] propose de nommer technologie-en-pratique (« technology-in-practice ») l’ensemble des règles et ressources qui sont (re)constituées dans les interactions récurrentes entre les individus et la technologie. A partir des notions de structures émergentes et d’énaction, elle propose un modèle renouvelé, plus proche des fondements de la théorie originelle de Giddens.
Dans ce modèle, Orlikowski [2000] concentre quasi exclusivement son analyse sur la technologie-en-pratique : elle reconnaît cependant que celle-ci est située dans un ensemble de systèmes sociaux qui s’enchâssent et se chevauchent. Ainsi, quand les individus interagissent avec les technologies, ils énactent en même temps la technologie-en-pratique et d’autres structures, comme une culture de coopération dans une groupe de travail, une autorité hiérarchique dans une organisation bureaucratique …
Le changement de perspective proposé par Orlikowski, qui consiste à placer l’action humaine au cœur de l’analyse et d’étudier comment les individus énactent des technologies en pratique, la conduit à identifier des formes caractéristiques d’énaction. Ces formes d’énaction sont associées à trois types de conséquences (intentionnelles ou non) et conditions (reconnues ou non par les agents).
1er type d’énaction : l’inertie. Elle se caractérise par le fait que les usagers choisissent de maintenir leur façon d’agir. Ici, l’usage de la technologie-en-pratique est limité, les individus n’effectuent pas de changements dans leurs pratiques de travail ni dans l’artefact technologique.
2nd type d’énaction : l’application. Les individus choisissent d’utiliser la technologie pour accroître ou améliorer leurs pratiques de travail. Ils s’inspirent des conditions institutionnelles, d’interprétation et techniques, et les reproduisent au fil du temps en les améliorant.
3ième type d’énaction : le changement. Les individus choisissent d’utiliser la technologie pour modifier considérablement leur façon de travailler. Ils modifient par voie de conséquence l’artefact technologique et leurs pratiques de travail, mais également l’organisation elle-même.
Ces formes d’énaction permettent à Orlikowski d’éclairer de façon originale le lien technologie-organisation. Elle souligne cependant que celles-ci ne visent pas l’exhaustivité mais qu’elles fournissent des modes de comparaison possibles entre les conditions et les conséquences de l’usage d’une technologie.
Au-delà, Orlikowski [1999] s’appuie sur ces conclusions pour proposer un certain nombre de recommandations managériales. Elle attire ainsi l’attention des managers sur la distinction qu’elle effectue entre technologie d’adhésion (ou artefact technologique) et technologie d’usage (technologie-en-pratique). Cette distinction expliquerait selon elle le fameux paradoxe de la productivité des TI. Selon l’auteur, « il ne faut plus se contenter de consacrer de l’énergie à la seule question de la technologie, mais il faut aussi en dégager pour celle de ses usages. Ce qui suppose de prendre au sérieux la différence entre les technologies que nous achetons et l’usage réel qui en est fait. A l’évidence, il faut acquérir et mettre en place des technologies appropriées, mais cela ne suffit pas à garantir une utilisation efficace - ni même une quelconque utilisation. Prendre au sérieux la question de l’utilisation impose aux dirigeants d’affecter des ressources pour aider les utilisateurs à acquérir des habitudes d’usages efficaces » [Orlikowski, 1999 : 3].
1.3.3.5. La prise en compte d’usages « encastrés dans un structurel »
Appliquée à l'étude de l'informatisation en milieu organisationnel, la théorie de la structuration permet d'étudier la question de l'usage des technologies après implantation dans l’entreprise [Groleau, 2002]. Cette problématique est abordée par les auteurs sous différents angles: analyses sur les fonctionnalités de la technologie utilisées par l'individu, sur le sens donné par les individus à la technologie qu'ils utilisent, sur les formes d'interaction entre un usager et la technologie ou entre les membres d'un groupe lorsqu'ils utilisent la technologie. Par ailleurs, leurs études portent sur les conséquences de l'usage de la technologie sur les structures sociales de l'organisation. Ainsi, mobilisant la tradition structurationniste, les auteurs se focalisent sur une phase particulière du processus d'innovation à savoir le moment de l'implémentation – appropriation d'une technologie, et ne traite que très peu de la phase de conception.
La perspective structurationniste telle que mobilisée dans les travaux sur l’informatisation en milieu organisationnel nous semble pour autant constituer un cadre de référence majeur pour notre recherche de par (i) l'analyse des interactions individu / technologie et (ii) la conception de l’usage qu’elle propose.

Une conception spécifique de l’interaction individu / technologie.
Dans la définition d'Orlikowski que nous retenons, la technologie est présentée comme une sorte de structure, une technologie-en-pratique dont l'usage se réfère à la structure que les acteurs qui l'utilisent énactent de façon routinière. Lors de leur interaction avec la technologie, les individus énactent les propriétés structurelles émergentes de la technologie. Pour cela, ils s'appuient sur leurs compétences, connaissances, croyances et attentes vis-à-vis de la technologie, elles-mêmes influencées par leurs expériences passées, leurs usages d'autres technologies et leur participation à toutes sortes de communautés politiques et sociales. Ils s'appuient par ailleurs sur leurs connaissances et expériences des contextes institutionnels dans lesquels ils vivent et travaillent, et par là même sur les conventions sociales et culturelles qui les définissent. Ces structures énactées lors de l'usage de la technologie sont ainsi des ensembles de règles et de ressources qui sont (re)constituées par l'engagement récurrent des individus avec la technologie. Ces règles et ressources ne peuvent être étudiées indépendamment des contextes plus larges dans lesquels elles se développent et qu'elles caractérisent. Les interactions individu/ technologie dans une tradition structurationniste sont alors principalement analysées en référence aux contextes organisationnels et institutionnels dans lesquels elles prennent place.

Une conception spécifique de l’usage de la technologie.
Dans cette perspective, l'usage de la technologie ne peut constituer un choix parmi un lot fermé de possibilités prédéterminées. A contrario, il se comprend comme un processus situé et récursif qui peut tout à la fois ignorer des usages conventionnels ou en inventer de nouveaux. Il est fortement influencé par la compréhension qu'ont les usagers des propriétés et des fonctionnalités de la technologie, compréhension étant elle-même fortement influencée par les images, descriptions, rhétoriques, idéologies énactées par les individus appartenant à des contextes différents. L'usage de la technologie se construit ainsi au regard des expériences, connaissances, significations, habitudes, normes, relations de pouvoir, qui sont actualisées par l'individu. Pour comprendre l'usage, il est donc nécessaire de l'inscrire dans un contexte organisationnel et institutionnel large, c'est-à-dire de prendre en compte les propriétés structurelles énactées par l'individu au moment de l'interaction.
Pour une articulation des approches …
Dans cette première section, nous avons souhaité effectuer une revue des différents courants qui placent l’étude de la technologie et des usages au cœur de leur problématique. Notre objectif était double. Il s’agissait d’une part d’enrichir les notions d’usage et de technologie et d’autre part de construire un cadre théorique susceptible d’éclairer notre problématique de conception de solutions TIC dans une démarche usage.
Les analyses que nous avons en premier lieu menées au sein du courant de la sociologie des usages nous ont conduits à rejeter les approches déterministes qui réduisent les usages à l’adoption ou non des propriétés intrinsèques d’une technologie. Dans cette perspective, les approches de la diffusion en sociologie et le modèle TAM en sciences de gestion ont été de facto rejetées. Au-delà, ces premières analyses nous ont conduits à étendre notre analyse et à intégrer dans un premier temps le courant de la cognition distribuée puis, dans un second temps, le courant de la structuration.
Dès lors, en suivant les travaux d’Orlikowski et Iacono [2001], nous pouvons classer nos développements dans trois ensembles plus larges de recherches : (1) la proxy view où la technologie est étudiée en référence à un ou plusieurs éléments critiques caractérisant son essence ; (2) la computational view qui appréhende la technologie à travers ses capacités de représentation, manipulation, stockage et transmission d’informations ; (3) l’ensemble view qui appréhende la technologie dans l’interaction avec son environnement. Le tableau suivant résume alors les principales caractéristiques des approches que nous avons présentées dans cette première section :

Proxy ViewComputational ViewEnsemble ViewCourants analysésThéorie de la diffusionModèle TAMThéorie de la cognition distribuéeApproche de l’innovationApproche de l’appropriationPerspective structuration-nisteProcessus étudiéImplémentationConceptionConceptionImplémentationDéfinition de la technologieLa technologie est immuable dans le temps : elle se définit à travers ses propriétés intrinsèques.La technologie est un artefact cognitif c’est-à-dire un espace récepteur de connaissances qui oriente l’action humaine en créant, transformant et propageant des représentations.Peu d’intérêt à la technologie en tant que telle, notamment car il ne s’agit pas de technologies informatiques.La technologie est un compromis sociotechnique, issue d’une démarche de co-conception en boucles itératives.La technologie n’est jamais un élément stabilisé et peut, tout au long des interactions, être constamment modifiée par l’action des usagers.Principes clésComprendre les usages des technologies informatiques à partir de variables clésAppréhender la technologie à travers ses capacités de traitement des informationsComprendre les interactions entre la technologie et son environnementApports dans l’analyse des usagesDéfinition de variables déterminantes pour une bonne utilisation. Celle-ci est entendue dans ces perspectives comme l’adoption de technologies par les utilisateurs- Prise en compte d’usages finalisés et localement situés
- Définition des interactions outils-technologies- Nécessité d’intégrer les usagers dès la phase de conception
- Définition des interactions outils-technologies en regard d’un réseau sociotechniqueSouligne la dimension sociale des usages et la nécessité d’appréhender le contexte- Prise en compte d’usages encastrés dans un structurel
- Usages émergents dans l’interaction Tableau 3 : Synthèse théorique sur la technologie et les usages.
En définitive, nous pensons que seules les approches structurationnistes, de la cognition distribuée et de l’innovation sont susceptibles d’éclairer notre hypothèse de travail et qui consiste à concevoir une solution TIC dans une perspective usage. L’articulation de ces approches permet à la fois d’obtenir une meilleure compréhension de la technologie et des usages :
Concernant la technologie : elle est le résultat d’un construit social dont la forme peut varier en fonction des divers usagers qui interagiront avec elle. En ce sens, elle n’est jamais une entité stable. Elle se doit de s’intégrer à son environnement matériel et cognitif et doit se comprendre comme le fruit d’un processus tourbillonnaire de conception.
Concernant les usages : ils revêtent une dimension sociale et ne peuvent se comprendre que dans l’interrelation complexe avec un contexte c’est-à-dire en regard d’un environnement d’usage pertinent. Celui-ci peut être appréhendé à différents niveaux : celui des pratiques de travail, du réseau sociotechnique ou encore du contexte organisationnel et institutionnel. Enfin retenons que l’usage se définit comme l’énaction de la technologie c’est-à-dire l’interaction entre un individu et les technologies en pratique.
L’analyse fine de la notion d’usage ainsi réalisée conduit à placer le contexte dans lequel la technologie sera implémentée au cœur de note réflexion. Cette priorité est d’autant plus prégnante que notre recherche vise à faciliter la mise en œuvre de projets innovants particulièrement complexes. Ceci suppose donc de nous interroger à présent sur les pratiques de montage de projets de recherche innovants par le biais des partenariats publique / privée. Chapitre 2 : Les pratiques de montage de projets innovants dans les partenariats recherche publique / recherche privée
Introduction

« La gestion de la connaissance devient intuitivement primordiale mais intellectuellement insaisissable »
Despres et Chauvel [2000 : 55-56]

Nous avons vu dans le chapitre précédent que l’usage est un construit social qui ne peut être compris indépendamment des pratiques dans lequel il s’insère. Dans le cadre de notre recherche, nous nous intéressons plus spécifiquement à la création de connaissances ce qui devra alors nous conduire à nous interroger de manière approfondie sur les pratiques propres à la dynamique de création de connaissances. Plus précisément, elle vise à identifier les conditions favorables à la création de connaissances entre des acteurs hétérogènes, notamment entre des acteurs de la recherche publique et de la recherche privée. De ce point de vue, la question sous jacente qui nous intéresse est de comprendre les conditions qui feront que les partenariats recherche publique – recherche privée pourront aboutir à des pratiques collectives de création de connaissances.
Dans le cadre de notre travail, la solution TIC développée doit faciliter en effet la mise en œuvre de projets innovants par le biais de partenariats entre recherche publique et recherche privée. Par conséquent, réfléchir sur les pratiques de mises en œuvre de tels projets conduit à s’interroger sur les leviers à la création de connaissances d’une part, et sur les modalités d’organisation de ces partenariats d’autre part.
Dans un premier temps, nous interrogerons la problématique de la création de connaissances. Ceci supposera au préalable d’éclaircir la notion même de connaissances en la distinguant des notions de données et d’information parfois confondues dans la littérature, et de présenter les différentes formes qu’elle peut prendre. Puis, nous nous intéresserons aux principaux modèles de création de connaissances ce qui nous conduira à en privilégier une approche en tant que pratique collective.
Dans un second temps, nous analyserons les problèmes spécifiques que posent les partenariats recherche publique recherche privée dans le secteur des télécoms. Ici, le système d’innovation et de recherche français définit un cadre particulier à la mise en œuvre de ce type de partenariat qu’il nous faudra spécifier. Cette analyse ne peut faire l’économie du secteur d’activité dans lequel elle s’insère à savoir celui des télécommunications français. Nous verrons en effet que ce secteur d’activité introduit un élément d’hétérogénéité supplémentaire. Enfin, nous devrons nous interroger sur les freins et modalités de la réalisation de ces partenariats.
2.1. La création de connaissances : une pratique collective
On assiste aujourd’hui à l’émergence d’une pluralité d’approche en gestion de la connaissance, si bien qu’il nous semble primordial dans cette partie de définir cette notion polymorphe. Pour cela, nous procéderons en deux temps. D’abord, nous tenterons de préciser les contours du concept même de connaissance en sciences sociales, puis nous déclinerons ses principales typologies et formes (§ 2.1.1.). Ensuite, parce qu’ils permettent aux entreprises d’acquérir un avantage stratégique durable, nous nous concentrerons sur les mécanismes de création de connaissances organisationnelles (§ 2.1.2.). Cela nous conduira plus particulièrement à souligner les enjeux de la codification dans l’échange et la combinaison de connaissances au sein et entre des organisations.
2.1.1. Clarification conceptuelle
La connaissance est une notion polymorphe et en cours de construction dans les sciences de gestion. Aucun consensus n’est établi entre les auteurs si bien que les définitions abondent. S’intéresser à la connaissance demande ainsi à ce que l’on s’interroge sur son concept, ses formes élémentaires et sa nature. Il apparaît alors nécessaire d’articuler ces différentes représentations de façon cohérente.
2.1.1.1. Données, information, connaissance
Selon Fahey et Prusak, « si la connaissance n’est pas différente des données ou de l’information, alors il n’y a rien de nouveau ou d’intéressant dans le management des savoirs » [ibid., 1998 : 266]. En d’autres termes, si l’on s’en tient à l’idée communément admise que la connaissance est un stock résultant simplement de flux d’informations, il n’y a aucune nouveauté à attendre d’une approche centrée sur les connaissances par rapport aux acquis de la vision informationnelle. Et pourtant, de nombreux articles s’intéressant aux processus de gestion des connaissances ne restent que très vagues quant aux différences entre données et informations d’une part, et entre informations et connaissances d’autre part. De ce fait, clarifier le concept de connaissances suppose de le mettre en perspective avec les concepts de données et d’informations.
Les données
Une donnée est un fait discret et objectif. Elle résulte d’une acquisition, d’une mesure effectuée par un instrument naturel ou construit par l’homme. Elle peut être qualitative (le ciel est bleu) ou quantitative (la température extérieure est de 20°C). Il n’y a normalement pas d’intention de projet dans la donnée, ce qui lui confère son caractère d’objectivité. Mais si la donnée est réputée objective, l’instrument lui ne l’est pas toujours. L’intentionnalité de l’observateur peut être tellement forte qu’elle fausse complètement la fiabilité de l’acquisition ; ainsi l’estimation, par exemple, du nombre de chômeurs en France varie-t-elle grandement alors qu’on pourrait penser qu’il suffit de les compter ! En fait, c’est dans la relativité que réside l’objectivité de la donnée : lorsque plusieurs données sont acquises de la même façon, alors leur comparaison offre un renseignement objectif [Prax, 2000]. Les données (signes des évènements et des activités humaines de tous les jours) ont peu de valeur en elles-mêmes ; elles ont néanmoins à leur crédit d’être faciles à manipuler et à stocker (notamment grâce à la technologie informatique). Boisot et Canals définissent les données comme « des propriétés des choses du monde, une différence objective entre deux éléments » [2003 : 3]. Selon ces auteurs, les choses du monde sont perceptibles par les agents qui les appréhendent en effectuant des différences en termes d’espace, de temps et d’énergie. Dans leurs activités quotidiennes, les agents sont envahis de signaux ; pour autant, ceux-ci ne sont pas tous perceptibles par les agents qui sélectionnent ces signaux parmi un flot continu. En effet, les agents effectuent des transformations neuronales de ces signaux pour pouvoir les percevoir comme données. Ce processus de conversion de signal en données par l’agent est alors fonction de la sensibilité de l’appareil sensoriel de l’agent.
L’information
L’information est extraite des données par les agents. Il s’agit d’une collection de données organisées pour constituer un message, le plus souvent sous une forme visible, imagée, écrite ou orale. Ainsi, alors que les données tendent à être appliquées pour des statistiques comparatives et qu’elles peuvent être linéarisées, l’analyse de l’information requiert l’examen préalable des boucles de rétroaction entre les données extraites et l’agent qui initie le processus [Boisot et Canals, 2002].
Pour Boisot et Canals, « les informations se définissent comme des régularités significatives qui résultent de l’extraction de données par des agents » [2003 :6]. Dans cette perspective, l’information est hautement personnelle et seules des régularités établies par convention sont susceptibles d’apporter de l’objectivité aux informations, celle-ci étant bien entendu limitée à la communauté régulée par la convention. La façon d’organiser les données résulte donc d’une intention de l’émetteur et est parfaitement subjective. Le récepteur décidera par la suite si le message qu’il reçoit représente réellement pour lui une information. Ce processus suppose alors que le récepteur :
possède les clés de décodage lui permettant de transformer le message en information,
soit apte, dans son projet ou son attention sélective, à recevoir cette information,
sache faire sens du signal reçu. Bateson [1979 : 5] souligne à cet effet que les informations sont des « différences qui créent une différence ».
Rappelons enfin que la donnée doit être « acceptée » avant d’être « traitée » pour devenir véritablement une information, c’est-à-dire un message porteur de sens. Les travaux en psychologie montrent ainsi que les individus ont tendance à rejeter les données extérieures qui ne correspondent pas à leur état de connaissance préalable, alors qu’à l’inverse, ils accordent une importance exagérée aux données qui viennent renforcer leurs perceptions et croyances existantes [Schwenck, 1984 et 1988 ; Stubbart, 1989]. Ainsi, les informations qu’un individu émet ou reçoit ont pour lui une signification déterminée par leur « place » dans un système de classification et sont incluses dans un cadre de référence qui leur donne signification.

Pour la suite de ce travail nous définirons l’information comme un ensemble de données accepté par un individu appartenant à un collectif d’individus (entreprises, secteur, discipline technologique…), structurée selon ses propres cadres et/ou les cadres communs à ce collectif et traitée selon ses schémas cognitifs (ou ceux du collectif) afin de lui donner un sens. Cette définition s’appuie sur celle de Barlatier [2006] pour qui :
« Les informations sont des données interprétées par un individu en faisant référence à son cadre propre de perception, lui-même fonction des connaissances précédemment acquises, du « stock » de connaissances qu’il possède. Les données reçues subissent donc une série d’interprétations (filtres, retraitements…) liées aux croyances collectives (paradigmes…), au milieu socioprofessionnel, à l’intention, à la base de connaissances de l’individu récepteur… Alors, comme l’exprima Bateson [1979], l’information peut fournir également à un individu des perspectives nouvelles d’appréhension de concepts, d’interprétation d’évènements, de perception d’objets, qui rend visible des significations initialement invisibles. Une information vient s’intégrer dans son système personnel de représentations, ce qui signifie que pour qu’une information devienne connaissance, il faut alors que l’individu puisse construire une représentation qui fasse sens. »
Cette définition confirme ainsi que données et informations sont distinctes. Elle révèle également que l’information est à la fois le moyen et le matériau nécessaire à l’avènement et la construction de la connaissance.
La connaissance
Finalement, la connaissance se définit comme un ensemble de prévisions propre à un individu porteur, qui peut se trouver modifiée par l’arrivée de nouvelles informations. En ce sens, la connaissance est une notion plus riche que celle d’information ; elle renvoie à la capacité que donne la connaissance à engendrer, extrapoler et inférer de nouvelles connaissances et informations. Une personne qui possède des connaissances dans un certain domaine est capable de produire à la fois de nouvelles connaissances et de nouvelles informations relatives à ce domaine. Ainsi, la connaissance renvoie fondamentalement une capacité d’apprentissage et une capacité cognitive, tandis que l’information reste un ensemble de données formatées et structurées, d’une certaine façon inertes et inactives, ne pouvant par elles-mêmes engendrer de nouvelles informations [Foray, 2000]. En ce sens, les connaissances peuvent être définies comme de l'information interprétée par un individu en faisant référence à son propre cadre de perception, lui-même fonction des connaissances précédemment acquises. L'interprétation est donc le facteur clé permettant de distinguer une information d'une connaissance. En effet, l'information reçue subit une série d'interprétations (filtres, retraitements…) liées aux croyances collectives (paradigmes…), au milieu socioprofessionnel, à l'intention, au projet de l'individu récepteur…
A la lecture de la littérature économique et managériale, il est possible de dégager quelques principes qui permettent d’appréhender le concept de connaissance :
La connaissance est ancrée dans les croyances et l’engagement de l’individu porteur [Nonaka et Takeuchi, 1995]. Elle est fonction d’une situation, perspective ou intention particulière.
Elle est fortement contextuelle et relationnelle c’est-à-dire créée d’une manière dynamique à travers l’interaction sociale [Weick, 1969 ; Arce et Long, 1992]. En ce sens, comme l’information, elle a trait à une signification.
Elle résulte d’une intention et implique une finalité [Nonaka et Takeuchi, oc. cit.].
Elle n’est pas seulement mémoire, item figé dans un stock : elle reste activable selon une finalité, une intention, un projet. La connaissance est ainsi un concept dynamique, construction d’une représentation finalisante d’une situation, en vue d’un bon résultat.

Au final, Boisot et Canals [op. cit.] proposent de schématiser les relations entre données, informations et connaissances comme suit :

Figure 7 : Données, Informations et Connaissances [Boisot et Canals, 2003].
Cette figure suggère de prendre en considération à la fois les différences entre les concepts de données, d’informations et de connaissances et leur importance relative. Elle montre alors que les seules choses qui transitent entre deux individus ou de façon plus générale entre un individu et le reste du monde sont des données. L’information apparaît ainsi comme un flux de messages filtrés par les croyances et adhésions de l’agent créateur de connaissances. Le rôle de l’information est de fournir de nouveaux points de vue afin d’interpréter les événements et les objets (données) en rendant visible les significations auparavant invisibles ou encore éclairer des relations inattendues. L’information est donc un moyen et un matériau permettant de découvrir et de construire la connaissance [Dretske, 1981]. Enfin, « la connaissance ne se trouve pas être un stock au même titre qu’un réservoir d’huile qui se modifie quantitativement, mais une structure qui se nourrit d’information, ce qui implique intrinsèquement des capacités cognitives pour la comprendre » [Créplet, 2001 : 31].
La figure 7 et la discussion précédente suggèrent au-delà que la connaissance est un concept riche et différemment appréhendé dans la littérature. Il nous paraît donc à présent nécessaire de progresser dans l’analyse de ce concept pluriel en attachant une importance toute particulière aux formes de la connaissance.
2.1.1.2. Les formes de connaissances
Comme le soulignent Venzin et al. [1998], de nombreux auteurs ont effectué des recherches sur la connaissance. A la lecture de ces travaux, il semble qu’un consensus se dégage sur une double typologie des formes de la connaissance. Celle-ci distingue d’une part les connaissances individuelles et collectives, et d’autre part, les connaissances explicites et tacites. Enfin, un troisième type de connaissance semble compléter cette typologie en référence au concept de knowing de Cook et Brown [1999] que nous étudierons après avoir analyser les formes classiques de la connaissance.
Connaissances individuelles et connaissances collectives
La connaissance individuelle est la partie des connaissances organisationnelles qui réside notamment dans les talents intellectuels et physiques de l’agent. Le savoir individuel se définit ainsi comme l’ensemble des croyances d’un individu sur les relations de cause à effet entre phénomènes. Ces croyances représentent un répertoire de connaissances détenu par l’agent, celui-ci pouvant être mobilisé pour la résolution de difficultés spécifiques et indépendantes.
La connaissance collective se réfère quant à elle aux vecteurs de distribution et de partage de connaissances à travers les agents organisationnels. L’accumulation des connaissances collectives est souvent appréhendée à travers le concept de capital intellectuel qui se définit comme l’ensemble des connaissances d’une collectivité sociale stocké dans des règles, procédures, routines et normes partagées qui guident les activités de résolution de problèmes et les modèles d’interaction qui agissent entre les agents organisationnels.
Ici, il convient de souligner le flou notoire qui règne autour de la notion de collectif. Lorsque nous parlons de connaissances collectives, il est impossible de savoir le nombre de personnes qui sont désignées ; la collectivité commence en effet dès que deux personnes sont réunies. De la même façon, une autre série de questions, d’une portée comparable, pourrait concerner le lien entre connaissance individuelle et connaissance collective. Pour certains, la connaissance collective peut être plus ou moins égale à la somme des connaissances individuelles de l’organisation, ceci dépendant de l’efficacité des mécanismes qui traduisent la connaissance individuelle en connaissance collective [Nonaka et Takeuchi, 1995]. Ici, la connaissance est créée en un sens strict par les individus et le rôle de l’organisation est de stimuler la créativité des individus et de leur fournir un contexte favorable à la création de connaissances. A contrario, d’autres auteurs affirment qu’il n’existe pas de connaissances individuelles en tant que telles car les connaissances sont le résultat d’une interaction sociale entre les agents et sont conditionnées par leur environnement [Weick, 1969]. De ce point de vue, les connaissances individuelles ne sont que le reflet de connaissances collectives partagées et construites socialement.
Cheminant entre ces deux extrêmes, Nelson et Winter [1982] montrent que la possession d’une connaissance technique est l’attribut de la firme dans son ensemble, qu’elle n’est donc pas réductible à la connaissance d’un individu ou simplement à une agrégation des compétences variées des individus, équipements et installations de la firme. En outre, Brown et Duguid [1991] aussi bien que Wenger [1998] soulignent que la connaissance partagée est inextricable dans des milieux sociaux complexes. En ce sens, il existe une partie de la connaissance collective qui est le fruit de l’interaction des pratiques individuelles et une autre partie composée de ce que les individus peuvent rapporter explicitement, de manière « personnelle ». La connaissance peut ainsi se trouver dans les organisations à la fois au niveau individuel mais également sous la forme d’un savoir organisationnel c’est-à-dire dans des croyances partagées sur les relations causales entre phénomènes [Hatchuel, 1994].
Connaissance explicite et connaissance tacite
La connaissance explicite est formelle et systématique ; de ce fait, elle peut être facilement transmise ou stockée dans des bases de données. Kogut et Zander [1992] parlent d’une « connaissance qui peut être transmise sans perte d’intégrité une fois que les règles syntaxiques nécessaires pour la déchiffrer sont connues » [Kogut et Zander, 1992 : 386]. Elle est fondamentalement transférable à travers le temps et l’espace indépendamment des sujets de la connaissance, sous forme orale, écrite ou électronique. Ces savoirs peuvent donc être mis en œuvre sans expérimentation préalable. Ils sont formalisables et par conséquent se prêtent à une large diffusion au sein de l’organisation.
Toutefois, l’expression de la connaissance par des mots ou des chiffres n’est que « la partie visible de l’iceberg ». Il existe également une partie de la connaissance qui n’est que difficilement visible et expressible : c’est la connaissance tacite [Nonaka et Takeuchi, 1995 ; Polanyi, 1966].
Comme l’indiquent Inkpen et Dinur, « la connaissance tacite est hautement spécifique à un contexte donné et comprend une dimension personnelle qui la rend difficile à formaliser et à communiquer » [1982 : 456]. La connaissance tacite est profondément inscrite dans l’action et dans l’engagement individuel pour un contexte spécifique : un métier ou une profession, une technologie particulière ou un marché de produits, les activités d’un groupe de travail ou d’une équipe. Ces caractéristiques la rendent particulièrement complexe à transférer ou à communiquer : il est alors nécessaire de constituer un langage partagé et reconnu ainsi qu’une interaction physique proche entre agents.
A l’instar de Nonaka et Takeuchi [op. cit.], nous retenons deux dimensions aux connaissances tacites : une dimension technique et une dimension cognitive. La première fait référence aux compétences techniques, talents, type de compétences informelles, difficiles à définir que l’on capte dans le savoir-faire. La seconde dimension révèle que la connaissance tacite s’ancre dans des schémas mentaux, des croyances et des points de vue si profondément enracinés que les agents organisationnels ne peuvent parfois pas les énoncer. Ces modèles implicites, ou modèles mentaux forgent fortement la façon dont les agents perçoivent le monde. Ils sont fabriqués par l’être humain au cours de son action en manipulant et agrégeant des concepts par analogie : schémas, paradigmes, perspectives, croyances, images de la réalité et visions du futur… autant d’outils qui l’aident à interpréter et comprendre son environnement. Ils permettent à l’individu de construire des images de la réalité en termes de « ce qui est » et « ce qui devrait être » [Nonaka et Takeuchi, 1995 ; Prax, 2000].
Notons pour finir que la littérature est partagée entre deux conceptions différentes de la connaissance tacite. Celle-ci peut en effet être vue comme une connaissance qui n’a pas encore été formalisée ou rendue explicite [Nonaka et Takeuchi, 1995] aussi bien qu’une connaissance qui ne peut être totalement formalisée [Polanyi, 1958]. Pour la suite de ce travail de recherche, nous retiendrons l’idée selon laquelle la distinction entre connaissance tacite et connaissance explicite n’est qu’analytique. En ce sens, connaissances tacites et explicites s’insèrent dans un continuum et non dans une dualité. Ainsi, le caractère explicite d’une connaissance sera plus ou moins important mais elle possèdera toujours une dimension tacite. En effet, même si la connaissance est articulée sous forme alphabétique, numérique, schématique ou modélisée, cette connaissance explicite est toujours reliée à une compréhension tacite, et par conséquent, toute connaissance ne peut être entièrement formalisée. Nous reviendrons sur la complémentarité entre ces formes lorsque nous traiterons des processus de codification des connaissances.
Le knowing
Un ajout majeur à cette typologie « classique » est sans conteste l’apport de Cook et Brown [1999] sur la notion de knowing. Sans remettre en cause l’interprétation classique de la double typologie individuelle/collective, tacite/explicite, Cook et Brown [ibid.] proposent d’ajouter à ce qu’ils nomment une épistémologie de la possession, une épistémologie de la pratique. Selon eux, « les individus et les groupes utilisent de la connaissance aussi bien explicite que tacite quand ils agissent ; cependant, toutes les choses qu’ils savent faire ne sont pas seulement dues à la connaissance qu’ils possèdent. Comprendre les actions d’individus ou de groupes impliquent alors de s’intéresser à la fois à la connaissance utilisée dans l’action et à la connaissance –au sens de knowing- comme partie intégrante de la pratique » [Cook et Brown, ibid. : 383]. En outre, même si Cook et Brown reconnaissent l’existence de quatre formes de connaissances, ils soulignent que celles-ci doivent être traitées sur le « même piédestal » et qu’elles ne peuvent intrinsèquement être converties d’une forme à une autre. Plutôt, c’est l’utilisation d’un type de connaissance dans le cours d’une activité qui peut générer des connaissances d’un autre type. Chacune de ces formes de connaissances remplit ainsi une fonction que les autres ne peuvent remplir.
Chacun de ces points peut être illustré à travers l’exemple du vélo de Cook et Brown :
Si l’on souhaite faire du vélo, il est nécessaire d’avoir la connaissance (tacite) de la façon de rester en équilibre sur le vélo. Cette connaissance tacite est ainsi possédée par l’individu : en ce sens, elle n’est pas l’activité de rouler mais la connaissance utilisée pour rouler. Ici, la connaissance est possédée.
Disposer de la connaissance explicite de faire du vélo ne permet pas à un novice d’atteindre cet équilibre : pour acquérir la connaissance tacite, celui-ci devra en effet passer un peu de temps sur son vélo. Aucune connaissance explicite en elle-même ne permet d’agir : elle apporte seulement le substrat pour agir.
Pour autant, une forme de connaissance peut souvent être une aide pour acquérir l’autre : ainsi, nous pouvons monter sur mon vélo pour analyser comment garder l’équilibre, le transmettre à un novice qui l’utilisera quand il sera sur son vélo.
Cependant, cette connaissance explicite ne permet d’acquérir la connaissance tacite que si l’individu la met à un moment de temps en action et inversement, la connaissance tacite est indispensable quand nous voulons rouler et pour autant elle ne permet pas d’expliquer comment. Il n’y donc a pas de conversion directe d’une forme à l’autre. En revanche, nous utilisons la connaissance tacite quand nous faisons du vélo pour générer de la connaissance explicite. En ce sens, la connaissance explicite n’était pas « cachée » dans la connaissance tacite mais elle a été générée par la connaissance tacite quand l’individu a fait du vélo.
Cook et Brown montrent ainsi que le knowing est la partie dynamique de la connaissance, qui n’existe que dans l’action, dans les interactions entre les individus avec le monde tant physique que social. La connaissance, quant à elle, est l’outil du knowing qui à la fois le contraint et l’habilite. Le knowing est alors cette partie de la connaissance qui assure le lien entre les formes de connaissance et l’environnement physique et social dans lequel agissent les individus et par le biais de laquelle les apprentissages sont possibles. Les individus et les groupes utilisent leurs connaissances dans leurs interactions avec le monde physique et social. Les connaissances servent de guides et informent la façon dont nous interagissons avec le monde. Inversement, l’environnement impose ses contraintes sur ce qu’il est possible de faire. L’articulation entre les contraintes/habilitations de l’environnement et les connaissances se fait au travers du knowing : c’est ce que Cook et Brown appellent la danse générative.
Le knowing possède ainsi différentes caractéristiques distinctives. Tout d’abord, il permet le « questionnement productif », c’est-à-dire la recherche de la solution à un problème dans le cours de l’action (ainsi, un physicien engagé dans une expérience cherchant à donner un sens à ce qu’il observe). De plus, le knowing intègre la notion d’interaction entre le sujet connaissant et son environnement physique et social. Il permet d’intégrer dans le cours de la pratique les contraintes et les opportunités qu’offre l’environnement afin d’atteindre un objectif. Dans les interactions avec le monde extérieur, le knowing permet d’articuler les contraintes de l’environnement et les normes et procédures que l’agent possède sous la forme de ses connaissances.
Ainsi, le jeu entre pratique, environnement et connaissance permet le développement du knowing et de nouvelles connaissances, ce qui peut s’illustrer de la façon suivante :

Figure 8 : La danse générative [adaptée de Cook et Brown, 1999]
L’approche de Cook et Brown, en liant environnement, connaissance et action, souligne l’importance de la prise en compte du contexte dans les processus d’apprentissage, ainsi que le caractère idiosyncrasique lié aux activités de connaissance. Ici, le sujet créateur de connaissances utilise son cadre cognitif de référence (c’est-à-dire sa base de connaissances) afin d’interpréter des données provenant de son environnement ou de donner des significations à des informations qui vont être traitées. En ce sens, la vision de Cook et Brown est parfaitement compatible avec celle de Boisot que nous venons de définir.
Vers une synthèse : la matrice des formes classiques de connaissances
A partir de l’étude de ces formes de connaissances, Nonaka et Takeuchi [op. cit.] présentent la matrice suivante :

Figure 9 : La matrice des formes de la connaissance [Nonaka et Takeuchi, 1995]
Dans cette figure, les dimensions épistémologiques et ontologiques font respectivement référence aux deux distinctions précédemment analysées entre d’une part connaissances individuelles et collectives (dimension ontologique) et entre connaissances tacites et explicites d’autre part (dimension épistémologique). Pour Nonaka et Takeuchi, ces dimensions permettent d’expliquer l’innovation c’est-à-dire de disposer d’une théorie de la création de connaissances organisationnelles. En effet, la création de connaissances émerge quand l’interaction entre connaissances tacites et explicites est élevée de façon dynamique d’un niveau ontologique inférieur vers les niveaux supérieurs.
Il convient toutefois de souligner que chaque niveau ontologique (individuel, groupe, organisation et inter-organisation) dispose de mécanismes de création de connaissances propres. Cependant, notre recherche portant sur les mécanismes de création de connaissances dans les partenariats recherche publique/recherche privée, nous n’analyserons par la suite que les niveaux collectifs de création (c’est-à-dire groupe, organisation et inter-organisation).
Dans cette perspective, nous allons à présent nous intéresser aux travaux récents en matière de création de connaissances avec l’analyse de deux modèles : le modèle en spirale de Nonaka et Takeuchi [1995], référence en la matière des années 90 ; et le modèle de création de connaissances organisationnelles de Nahapiet et Ghoshal [1998], profondément ancré dans une perspective sociale de création de connaissances organisationnelles.
2.1.2. Les modèles de création de connaissances organisationnelles
L’objet de cette section est d’étudier les processus de création de connaissances dans les organisations. Deux modèles dominent la littérature sur ce sujet : le modèle SECI de Nonaka et Takeuchi [1995] et le modèle de Nahapiet et Ghoshal [1998] que nous traiterons successivement. Nous nous attacherons également à l’analyse du processus de codification retenu dans ces deux modèles.
2.1.2.1. Le modèle SECI de Nonaka et Takeuchi
Ancré dans une tradition épistémologique japonaise qui consiste à privilégier les formes tacites de la connaissance, Nonaka et Takeuchi [1995] proposent un modèle de création de connaissances qui puise dans le postulat fondamental selon lequel la connaissance se crée et s’étend au travers de l’interaction sociale entre connaissances tacites et explicites.
Dans la perspective qu’ils retiennent, connaissances tacites et connaissances explicites, loin d’être antagonistes, sont indispensables et complémentaires, car leurs interactions au sein de la firme forment la base de la création de connaissances organisationnelles.. Cette hypothèse selon laquelle l’interaction continue et la dynamique entre connaissances tacites et connaissances explicites implique l’émergence de processus de création de connaissances conduit alors Nonaka et Takeuchi [1995] à identifier quatre modes de conversion de connaissances qui permettent à la firme de construire une base de connaissance partagée :

Figure 10 : Les modes de conversion de connaissances [Nonaka et Takeuchi, 1995]
La socialisation : elle marque le passage de la connaissance d’une forme tacite à une autre forme tacite. Il s’agit d’un processus de création de connaissances tacites telles que les modèles mentaux partagés et les aptitudes techniques par l’interaction entre individus. Cette interaction peut être de plusieurs types : il peut s’agir d’un transfert de connaissances à travers le partage d’expériences, l’imitation, l’observation ou encore la pratique. L’exemple qui correspond le mieux à ce transfert de connaissances est celui des apprentis et de leur maître qui apprennent non pas uniquement par les manuels mais aussi par l’expérience directe. Dans ce mode de conversion, la proximité physique des individus est une variable déterminante.
L’extériorisation : elle est un processus d’articulation des connaissances tacites en connaissances explicites. Ce mécanisme permet de remédier aux caractéristiques de la connaissance tacite, à savoir ses difficultés de transfert et de communicabilité. Une connaissance tacite locale peut ainsi être transmise au sein de la firme par codification c’est-à-dire grâce au développement de modèles, la formalisation de documents, de savoir-faire, d’analogies et le dialogue collectif. Ce mode de conversion est capital dans la dynamique de création de connaissances dans la mesure où l’organisation et la coordination des séquences de socialisation-externalisation jouent un rôle déterminant dans l’intégration de nouvelles connaissances. L’externalisation permet également de conceptualiser une vision partagée par chacun, c’est-à-dire d’exprimer un langage commun par une représentation mentale partagée et le recours à des métaphores, des analogies et des modèles.
La combinaison : elle correspond au mécanisme de création de connaissances explicites par sélection, reconfiguration et modification d’autres connaissances explicites. Par le biais d’un langage commun, les agents peuvent se communiquer leurs connaissances explicites qui seront alors combinées, rapprochées pour produire, par induction, déduction, hybridation, des connaissances nouvelles. La combinaison peut ainsi s’effectuer par l’intermédiaire de plusieurs dispositifs visant à favoriser le partage de connaissances explicites détenues par différents agents : la catégorisation et la classification de différentes connaissances explicites dans un manuel de procédures ou une base de données électronique en sont de bons exemples. Le développement des TIC ces dernières années favorise également le processus de conversion des connaissances en réduisant le besoin de proximité physique des individus. Ainsi, les séquences d’externalisation-combinaison sont la continuité de la logique globale de transfert et de maîtrise de la connaissance tacite de la firme.
L’internalisation : elle marque le passage de la forme explicite de la connaissance à sa forme tacite. Plus spécifiquement, elle traduit l’incorporation par un individu d’une nouvelle connaissance explicite dans une séquence d’action qui deviendra par la suite tacite et routinière. La connaissance explicite prend ainsi la forme d’une connaissance procédurale, un « know-how » commun à un groupe de travail qui s’enrichit progressivement par l’expérience et donne naissance à de nouvelles connaissances tacites, créées et acquises par les individus.

La création de connaissances dans les organisations est alors, dans le modèle de Nonaka et Takeuchi, le fruit de l’interaction entre connaissances tacites et connaissances explicites, celle-ci étant elle-même infléchie par l’alternance entre les différents modes de conversion de connaissances. Cette articulation peut être représentée par un processus en spirale qui s’élargirait du niveau individuel, où est accumulé le savoir tacite, au niveau collectif du groupe puis à celui de l’organisation et du réseau d’organisations par échanges et interactions entre savoirs tacites et savoirs explicites. Il s’agit d’un processus en boucles dans la mesure où la nouvelle connaissance détenue au niveau collectif peut interagir avec la base de connaissances d’un agent et donc, par combinaison, déclencher le processus de création de connaissances. Ce processus en spirale peut être représenté comme suit :

Figure 11 : Le modèle SECI [Nonaka et Takeuchi, 1995]
Cette spirale de connaissances se met en place grâce à plusieurs déclencheurs. La socialisation commence par la construction d’un environnement d’interaction, un réseau de connaissances qui permet aux membres de partager des expériences et des modèles mentaux. L’extériorisation est déclenchée par un dialogue ou une réflexion collective porteur de sens, dans lesquels le recours à une métaphore ou à une analogie appropriée aide les membres de l’équipe à articuler les connaissances tacites difficiles à communiquer. La combinaison est ensuite encouragée par la mise en réseau de la nouvelle connaissance créée et des connaissances détenues dans d’autres parties de l’organisation. Enfin, grâce à l’apprentissage, le processus d’internalisation s’effectue. Dans ce processus, la socialisation et la combinaison représentent les étapes les plus créatrices de connaissances, l’internalisation et l’externalisation représentant les étapes de conversion de connaissances.
Enfin, il nous semble important de noter que l’idée fondamentale de ce modèle est que la connaissance organisationnelle, bien qu’étant le fruit d’interactions individuelles, est créée, au sens strict, par un individu. Comme le souligne Nonaka, « une organisation ne peut créer de savoir sans individus. L’apprentissage organisationnel devrait donc être considéré comme un processus organisationnel qui amplifie le savoir créé par les individus et le cristallise comme élément du réseau de savoir de l’organisation » [1994 : 17]. L’enjeu consiste alors pour l’organisation à mobiliser les connaissances tacites, les convertir en connaissances explicites et les diffuser aux autres acteurs organisationnels, aussi bien individus que groupes. Ces connaissances pourront ainsi être capitalisées et être sources de nouvelles inspirations pour les autres acteurs organisationnels, créant par la même d’autres connaissances, et donc un nouveau processus en spirale …

Le modèle en spirale de création de connaissances de Nonaka et Takeuchi [1995] a connu un important succès aussi bien auprès des académiques que des praticiens. Récemment, il a fait l’objet de développements nouveaux qui s’articulent autour de deux concepts : celui de ba [Nonaka, Takeuchi et Konno, 2000] et celui d’actifs de connaissances [Nonaka et al., 2001].
Le ba désigne le contexte physique et social nécessaire à la création de connaissances. Pour Nonaka et al. [2000] chaque mode de conversion de connaissances s’effectue dans un ba particulier : le « ba de l’origine » est caractérisé par les interactions en face-à-face entre deux individus et constitue le lieu de la socialisation. Le « ba du dialogue » est le contexte dans lequel plus de deux individus dialoguent et construisent des représentations communes ; c’est le contexte de l’externalisation. Le « ba de la systématisation » favorise des interactions virtuelles et est le lieu de la combinaison de connaissances explicites. Enfin, le « ba de l’exercice » est le contexte dans lequel les connaissances explicites sont mises en action et favorise donc l’internalisation.
Les actifs de connaissances se définissent quant à eux comme « les inputs et les outputs du processus de création de connaissances, qui forment la base de création de connaissances organisationnelles » [Nonaka et al., 2001]. Il peut s’agir par exemple de la confiance, qui est à la fois issue de l’expérience de l’échange entre deux parties et donc générée comme un output du processus de création de connaissances, et en même temps détermine le fonctionnement du ba comme plateforme de création de connaissances.
Ces deux concepts soulignent ainsi que le processus de création de connaissances est socialement encastré et non simplement, comme dans le modèle SECI initial, un mécanisme de conversion de connaissances. Ils offrent en outre une place primordiale à la vision de la connaissance qui sera capable de synchroniser l’organisation entière afin de créer des connaissances de manière dynamique et continue.
Au-delà, cette discussion sur le modèle SECI suggère que le passage de la forme tacite de la connaissance à la forme explicite est une étape primordiale du processus de création de connaissances. Pour autant, cette conversion semble beaucoup plus délicate que ne le laisse entendre Nonaka et al. non seulement en matière de création, mais aussi de transfert et de diffusion des connaissances. Ce constat nous conduit dès lors à nous intéresser plus spécifiquement à la problématique de la codification et à ses enjeux.
2.1.2.2. Les enjeux de la codification
Nonaka et Takeuchi [1995] proposent, outre les quatre modes de conversion des connaissances précédemment analysés, un modèle intégré du processus de création de connaissances dans l’organisation en cinq phases :
Le partage de connaissances tacites : cette phase correspond approximativement à la socialisation c’est-à-dire au transfert de connaissances tacites entre des individus ayant des passés, des expériences et des motivations différentes. Elle repose sur l’établissement de modèles mentaux, émotions et sensibilités partagés afin de bâtir une confiance mutuelle. Pendant cette phase, Nonaka et Takeuchi préconisent de mettre à disposition des champs dans lesquels les individus peuvent interagir en face-à-face, en d’autres termes des « ba de l’origine ».
La création de concepts : elle s’inscrit dans la volonté de verbaliser le modèle mental partagé sous la forme de mots et phrase et de le cristalliser sous la forme de concepts explicites. Il s’agit donc de l’extériorisation c’est-à-dire de la transformation de connaissances tacites en connaissances explicites au travers du dialogue et d’un travail coopératif entre les individus.
La justification des concepts : cette troisième phase coïncide avec la définition de la connaissance comme croyance vraie justifiée. Cette phase consiste alors, à un moment donné de la procédure, en la justification des nouveaux concepts créés par les individus ou l’équipe.
La construction d’un archétype : il s’agit de l’étape de conversion du concept justifié en archétype tangible et concret sous la forme d’un prototype ou d’un modèle / mécanisme opératoire. Durant cette étape, l’archétype est construit en combinant à la fois les nouvelles connaissances explicites créées et les connaissances explicites existantes. Cette phase s’apparente ainsi à la combinaison c’est-à-dire à la conversion de connaissances explicites, les concepts justifiés, en nouvelles connaissances explicites, les archétypes.
L’extension de la connaissance : pour Nonaka et Takeuchi, le processus de création de connaissances organisationnelles est un processus itératif en spirale. Il ne se termine donc pas une fois la construction de l’archétype achevée : au contraire, le nouveau concept se déplace vers un nouveau cycle de création de connaissances à un autre niveau ontologique.
Dans le processus décrit par ces auteurs, l’extériorisation (ou articulation) des connaissances donne souvent lieu à la création de nouveaux concepts (phase 2). Ces concepts doivent être justifiés (phase 3), c'est-à-dire que l’organisation va déterminer s’il est souhaitable de poursuivre le processus et de les approfondir. Les concepts sont alors convertis en archétype qui peut prendre la forme d’un produit, d’une procédure opératoire, d’une nouvelle valeur organisationnelle ou d’un nouveau système managérial (phase 4). Cette dernière phase qui structure et fixe les nouveaux savoirs est très proche de la phase d’abstraction du processus de codification.
Parce qu’il permet la création puis le partage de nouveaux concepts à partir de connaissances tacites (phases 2, 3 et 4), le processus de codification apparaît comme essentiel à la création de nouveaux savoirs [Nonaka et al., 2001]. Ce constat initial peut facilement être nourri de références complémentaires émanant tant de l’économie que de la gestion des connaissances. En effet, selon Foray [2000], bien que la connaissance tacite continue à jouer un rôle essentiel, la codification de la connaissance constitue à la fois la cause et la forme privilégiée de l’expansion de la base de connaissances.
Cependant, il y a plusieurs façons de penser la codification en question. Une divergence d’opinion entre les chercheurs oppose en effet d’une part ceux pour qui la connaissance peut être entièrement codifiée (tout dépendra du rapport entre le coût de la codification et son utilité) et qui stipulent que connaissances tacites et codifiées sont substituables [Cowan et al., 2000] ; et d’autre part, ceux qui prônent qu’une connaissance, même codifiée, détiendra toujours une part de tacite. De ce point de vue, les connaissances tacites et les connaissances codifiées sont considérées comme complémentaires [Johnson et al., 2002 ; Lazaric et al., 2003].
Parce que nous définissons la connaissance comme une croyance vraie et justifiée, une structure qui se nourrit d’informations et qui implique intrinsèquement des capacités cognitives pour la comprendre, nous ne pouvons adhérer au premier type de travaux. En effet, en affirmant que toutes les connaissances sont codifiables, ces auteurs n’effectuent pas de distinction entre connaissance et information : ils restreignent alors la question de la codification des connaissances au rapport entre le coût de la codification et son utilité. Au contraire, nous soutenons l’idée selon laquelle connaissances tacites et explicites sont complémentaires et incluses dans la connaissance codifiée. En ce sens, la connaissance codifiée n’a que peu de valeur sans l’attribution de sens par les individus et sans l’activation des codes qui la constitue. Les codes sont incomplets et la codification ne permet pas à elle seule de garantir le transfert de connaissances entre le destinataire et l’émetteur. Dans cette perspective, le processus de codification s’avère complexe et non neutre ; des influences mutuelles et récursives naissent entre les processus de codification, de structuration et de création de connaissances [Lazaric et Thomas, 2003] : « les codes et plus spécifiquement le langage utile pour transmettre la connaissance comprennent intrinsèquement une représentation du monde et mobilisent différentes ressources cognitives » [Ancori et al., 2001 : 268]. Pour autant, nous ne pensons pas que la présence de connaissances tacites soit un obstacle auquel il faille remédier mais au contraire que celle-ci est essentielle à l’innovation et à la créativité [Håkanson, 2002].
Selon Cowan et Foray [1997], le processus de codification repose sur trois éléments interdépendants : la construction de modèles, la construction de langages et l’écriture de messages. La codification se traduit ainsi dans un premier temps par un travail de création de modèles à partir de la connaissance tacite. Il faut analyser la connaissance tacite, la décomposer en micro-éléments, voire la recomposer pour pouvoir l’expliciter. Ici, le travail de codification n’est pas simplement un travail de transfert mais aussi un travail de création, qui implique de procéder à de nouveaux découpages et recompositions des savoirs. Dans un second temps, la codification prévoit la création et le développement de langages. Quelquefois, un langage naturel ou tout autre langage déjà existant suffit. Souvent, cependant, il faut créer de nouveaux éléments dans le cadre d’un langage existant ou produire un langage de toutes pièces. En effet, une connaissance sera plus facile à codifier et plus facile à diffuser au sein d’une communauté de personnes qui maîtrisent le langage utilisé. Enfin, la codification se traduira par la création d’un message placé sur un support ce qui suppose la mobilisation d’outils et de techniques d’impression. Pour Cowan et Foray [ibid.], le problème de la codification réside alors dans la création du modèle et plus spécifiquement dans la capacité d’articuler la connaissance pour permettre la codification, de même que dans le développement d’un langage suffisamment partagé et générique pour aller au-delà des jargons locaux.
Pour Thomas [2006], le processus de codification s’appuie ainsi sur deux processus clés : un processus d’articulation (ou d’extension) qui vise à convertir la connaissance tacite en connaissance explicite, et un processus d’abstraction qui vise à identifier des catégories abstraites, facilitant la communication et la diffusion, notamment sous forme informatique. Les processus d’articulation et d’abstraction sont très liés, ce qui explique qu’ils sont souvent confondus. Le premier donne une forme au phénomène, le second en propose une structure :
La première étape constitue l’articulation, c’est-à-dire l’explicitation des connaissances essentielles pour les acteurs concernés, dans des codes socialement partagés ; ces codes peuvent être des images, des cartes, toutes formes symboliques utilisées comme des langages [Håkanson, 2002]. L’articulation correspond à un processus de différentiation des diverses catégories d’expérience [Boisot, 1998]. Cette étape n’est pas sans difficulté et nécessite une « mise à nu » des connaissances posant souvent plus de réticences que d’engouement [Thomas, ibid.]. Elle repose aussi sur une capitalisation de connaissances tacites qui doivent être articulées. Or, comme le précise Polanyi [1966], si certaines connaissances tacites ne pourront pas être articulées, d’autres ne susciteront même pas l’intérêt d’une articulation.
La seconde étape consiste en l’identification de codes ou catégories abstraites permettant d’éclairer la structure sous-jacente du phénomène étudié, structure dont la pertinence est à relier avec l’objectif poursuivi de la codification. L’abstraction est un processus d’association des différentes catégories utilisées lors de la phase précédente [Boisot, 1998]. Cette phase permet de faciliter la diffusion rapide des connaissances. Toutefois, cette étape, plus abstraite que la précédente, peut générer une perte de finesse dans la retranscription des connaissances, et une éventuelle déperdition de ces dernières, notamment si les acteurs ayant participé au processus d’articulation ne sont plus mobilisés. Par conséquent, le processus de codification a d’autant plus de chance de réussir et d’évoluer que les communautés d’acteurs sont mobilisées dans la phase d’abstraction des données [Lazaric et al., 2003].
Ainsi définie, la création de connaissances explicites ou codification, semble s’accompagner d’un affinage des connaissances tacites des individus prenant part au processus de codification. Ici, la codification ne peut pas être réduite à la simple transformation de connaissances tacites en connaissances explicites mais doit être appréhendée au-delà comme la création de nouvelles connaissances à travers ce que Cook et Brown [1999] appellent la danse générative (cf. § 2.1.1.2). En d’autres termes, la codification ne doit pas être comprise comme la conversion de connaissances tacites en connaissances explicites mais comme la ‘génération’ de nouvelles connaissances et de nouveaux knowing dans l’interaction entre la pratique, les connaissances possédées et l’environnement. En ce sens, le processus de codification apparaît comme non neutre et même comme un élément de structuration de la communauté qui effectue la codification.
Ainsi, même si l’étude du modèle de Nonaka et Takeuchi a démontré l’importance des processus de conversion des formes de connaissances dans la création de connaissances organisationnelles, en insistant sur la problématique de la codification, elle pêche cependant dans la prise en compte du contexte social et des relations spécifiques au monde de l’activité dans laquelle s’engage le sujet créateur de connaissances et sa communauté [Cook et Brown, 1999].
Ces critiques nous mènent alors à considérer d’autres sources de travaux de création de connaissances organisationnelles, qui prennent en compte la dimension sociale de ce processus. Pour cela, nous avons choisi de considérer les développements socio-économiques récents qui relient le processus de création de connaissances et le concept de capital social. Ici, la création de connaissances n’est pas fondamentalement individuelle mais est plutôt un processus collectif, résultat d’interactions sociales.
2.1.2.3. Le modèle social de création de connaissances organisationnelles
Le modèle social de création de connaissances organisationnelles de Nahapiet et Ghoshal [1998] s’inscrit dans les développements récents des théories de la firme fondées sur les connaissances qui justifient l’existence des organisations par leurs capacités particulières de création et de partage de connaissances, capacités qui les différencient des agents institutionnels comme le marché [Kogut et Zander, 1992]. Dans ces nouveaux travaux, « l’avantage organisationnel » [Moran et Ghoshal, 1996] des firmes tient ainsi dans leurs capacités à créer, coordonner, structurer, capitaliser et transférer des connaissances, même de nature complexe et tacite. Pour Kogut et Zander [1996], la firme est alors une cellule sociale spécialisée dans la rapidité et l’efficacité dans la création et le transfert de connaissances. Elle est un lieu d’émergence de connaissances, capable à la fois de créer et de partager des connaissances, de coordonner, structurer, communiquer. Elle est en outre un lieu de coopération entre les individus.
Suivant les travaux de Schumpeter sur l’innovation et ceux de Moran et Ghoshal [op. cit.], Nahapiet et Ghoshal [op. cit.] affirment que toutes les nouvelles ressources, y compris la connaissance, sont créées à partir de deux processus : la combinaison et l’échange. Pour ces auteurs, ces deux mécanismes sont la clé de la création de connaissances organisationnelles (bien qu’ils reconnaissent qu’il puisse y avoir d’autres processus de création surtout au niveau individuel).
La combinaison
Schumpeter [1934] définit la combinaison comme le processus fondant le développement économique : « produire signifie combiner les matériaux et les forces dans notre champ d’investigation » [Schumpeter, 1934 : 65]. Fort de ce constat, de nombreux travaux se sont tout particulièrement intéressés aux mécanismes de création de connaissances organisationnelles [Boisot, 1995 ; Kogut et Zander, 1992]. La création de connaissances organisationnelles est vue dans ces perspectives comme le résultat de changements et de développements de la connaissance, du savoir-faire et de l’expérience existants [Schumpeter, 1934; Kogut et Zander, 1992].
Pour Kogut et Zander [1992], la firme produit de nouvelles connaissances grâce à ses « combinative capabilities », c’est-à-dire ses capacités à générer de nouvelles applications à partir du changement et du développement des connaissances existantes. Dans la perspective qu’ils retiennent, une place prégnante est accordée à la base de connaissances des organisations, véritable plateforme pour des développements futurs. Dans la lignée initiée par ces auteurs, Nahapiet et Ghoshal [1998] distinguent deux types de création de connaissances. Le premier se réfère à des mécanismes et des développements incrémentaux à partir de la connaissance existante ; ils s’appuient ici sur l’idée de Schumpeter [1934] d’un ajustement continuel par « petits pas » ou encore sur celle de March et Simon [1958] de recherche localisée. Le second revêt une forme plus radicale ; il s’agit alors d’innovation ou encore d’apprentissage en double boucle [Argyris, 1995]. Toutefois, qu’il s’agisse d’une création de connaissance incrémentale ou radicale, la création de connaissances organisationnelles est la résultante de nouvelles combinaisons dans la base de connaissances, soit entre éléments non précédemment connectés, soit par le développement de nouvelles connections entre éléments auparavant associés.
Cette définition de la combinaison est plus large que celle retenue par Nonaka et Takeuchi [1995]. En effet, tandis que Nonaka et Takeuchi définissent la combinaison comme un mécanisme de création de connaissances explicites par sélection, reconfiguration et modification d’autres connaissances explicites, Nahapiet et Ghoshal [1998] prennent en considération à la fois la connaissance tacite et la connaissance explicite, ce qui englobe les mécanismes de combinaison et socialisation du modèle SECI. Cette conception de la combinaison renforce l’idée que ces formes de connaissances ne sont pas antagonistes (car selon Polanyi, nous l’avons vu, toute forme de connaissance comporte une dimension tacite). Kogut et Zander [1992] soulignent que les interactions entre agents organisationnels nécessitent l’instauration de langages et / ou codes communs partagés afin de rendre les situations de combinaison efficaces. Ils appellent ces mécanismes de codification des « principes organisationnels de niveau supérieur » qui sont donc indispensables à la fois pour diffuser la connaissance de la firme à travers ses composantes mais aussi pour orienter et canaliser les processus d’apprentissage. Nous pouvons assimiler ces principes à la notion de « code organisationnel » de March [1991]. Kogut et Zander affirment que les capacités de combinaison de la firme (et donc sa capacité à créer des connaissances) sont à la base de l’avantage organisationnel.
Les travaux d’Henderson et Cockburn [1994] illustrent un autre aspect de la combinaison à travers leur concept de « compétence architecturale ». En effet, ils définissent la compétence architecturale d’une organisation comme la capacité de la firme d’intégrer et d’agencer des connaissances individuelles et tacites appelées « compétences de composantes », afin de développer de nouvelles compétences architecturales ou de composantes (en fonction de la nécessité). Cette « architecture organisationnelle » au sens de Nelson [1991] peut être source d’avantage compétitif notamment si la firme développe « sa capacité d’accès à de nouvelles connaissances situées en dehors des frontières de la firme » [Nelson, 1991 :66], donc ses processus d’échange.
Soulignons ici que la codification, telle que précédemment définie, est essentielle lors de la combinaison des connaissances puisqu’elle permet d’implémenter les codes et d’instaurer un langage commun.
L’échange
Lorsque les ressources sont détenues par différents agents, l’échange est un préalable à la combinaison. En effet, puisque la création de connaissances organisationnelles est généralement le fruit d’un processus de combinaison des connaissances et des expériences de différentes parties, il est, par la même, dépendant des échanges entre ces parties [Nahapiet et Ghoshal, 1998].
L’échange de connaissances peut être de deux types. Il peut s’agir d’un échange de connaissances explicites, détenues initialement par des individus ou des groupes, comme dans le cas d’un échange d’informations au sein d’une communauté scientifique, ce qui nous conduit à souligner l’importance des outils TIC. Il peut également s’agir de l’échange de connaissances tacites rendu possible grâce à l’interaction sociale. Ceci avait été au préalable mis en avant par Penrose [1959] qui montrait l’importance des groupes de travail pour la création de connaissances en assimilant la firme « à une collection d’individus qui acquièrent de l’expérience en travaillant ensemble » [Penrose, 1959 : 46].
La création de connaissances n’est envisageable que si les opportunités de le faire sont réelles, ce qui suggère un certain engagement de l’entreprise en ce sens. La coopération est un exemple de création d’opportunités d’échange. L’efficacité de cette coopération se mesure notamment dans sa capacité de transmission rapide d’informations (rôle de fournisseur et de distributeur d’informations) mais surtout dans sa capacité d’agencer des compétences, des métiers différents. Au-delà de la circulation des informations cela pose un problème de compréhension (réceptivité, adaptabilité) qui ne peut être résolu par une approche purement technologique et nécessite par conséquent l’instauration d’un langage commun. En effet, si les nouvelles techniques de l’information assurent une connexion rapide et complète des membres de l’organisation, elles n’assurent pas qu’ils se comprennent et soient capables de travailler ensemble, ni même que les agents combinent leurs connaissances et donc qu’ils créent de nouveaux savoirs.
Ainsi, Moran et Ghoshal [1996] ont identifié trois conditions requises afin que l’échange et la combinaison, entendues au sens de processus de création de connaissances, soient effectifs. Nahapiet et Ghoshal [1998] identifient une quatrième condition (la capacité à combiner les savoirs) :
La première condition à la combinaison et/ou à l’échange de connaissances est que l’opportunité d’échange ou de combinaison existe, en d’autres termes, que les formes collectives et déterminées de capital social soient accessibles. Ici, l’existence d’un important réseau social permet de faciliter l’accès à la connaissance distribuée et par la même l’échange et le développement de savoirs. Récemment, le développement des technologies de l’information (notamment Internet ou des logiciels comme Lotus Notes) ont considérablement augmenté les opportunités de combinaison et d’échange de connaissances. Toutefois, Davenport et Prusak [1997] soulignent que les réseaux informels ne suffisent plus et qu’il devient nécessaire d’établir des réseaux délibérés ayant pour objectifs de favoriser les opportunités d’échange et les capacités à combiner.
La seconde condition est l’anticipation : les parties doivent anticiper l’interaction pour créer de la valeur, même s’ils sont incertains de ce qui sera produit ou de comment ce sera produit. Par exemple, Hamel [1991] montre en effet que l’anticipation et la réceptivité sont des facteurs importants qui affectent le succès des alliances stratégiques. L’anticipation peut se rattacher à la première condition dans la mesure où elle constitue la phase amont de la perception par les individus d’opportunités d’échange. Si les agents n’anticipent pas de valeur à l’interaction, ils n’essayeront pas de déterminer des opportunités d’échange.
La troisième condition à l’échange et à la combinaison a trait à la motivation. Même si les opportunités d’échange existent et que les individus l’anticipent, leur valeur ne peut être créée que dans l’échange ou dans l’interaction, ce qui implique que l’engagement dans l’échange de connaissances doit être important, même si les parties restent incertaines du résultat et du partage de la valeur créée. Là encore, il est possible d’intégrer cette condition mais cette fois-ci à la capacité à combiner. En effet, la motivation est un pré requis à la quatrième condition : même si cette capacité existe, elle n’est utile que dans le cadre où les agents sont motivés.
Enfin, la dernière condition à l’échange et/ou à la combinaison est la capacité à combiner les savoirs. Même si les opportunités d’échange existent, qu’elles sont perçues comme précieuses et que les parties sont motivées, il est nécessaire de détenir la capacité à combiner l’expérience ou les savoirs. Cohen et Levinthal [1990] démontrent ainsi que la capacité d’une firme à reconnaître la valeur d’une information ou d’une connaissance nouvelle, mais aussi de l’assimiler et de l’utiliser, sont des facteurs vitaux pour le savoir organisationnel et pour l’innovation.
La combinaison et l’échange de connaissances sont donc des processus sociaux complexes qui reflètent l’imbrication des formes de savoir dans une organisation capable de créer, de partager, de coordonner, de structurer et de communiquer des connaissances. Cette dynamique justifie l’organisation comme source de valeur différente de la simple agrégation de savoirs individuels. L’échange met ainsi l’accent sur la réceptivité et la connectivité des agents et le travail en équipe. Le but est de créer des connaissances en combinant des connaissances hétérogènes. La capacité à combiner les savoirs met l’accent sur la compétence architecturale, le langage commun et les phénomènes de proximité dans le but de créer des connaissances grâce à l’efficacité des processus de socialisation (notamment les modèles mentaux) et de combinaison.

L’idée de Nahapiet et Ghoshal [1998] est d’associer ces développements sur la création de connaissances organisationnelles avec le concept de capital social. Ces auteurs soulignent en effet qu’« en relisant la littérature abondante sur la connaissance et la connaissance en action, nous avons rencontré de fortes évidences selon lesquelles la combinaison et l’échange de connaissances sont des processus sociaux complexes et que la majeure partie de la connaissance est socialement imbriquée » [Nahapiet, Ghoshal, 1998 : 131]. L’hypothèse défendue par ces auteurs est donc que la création de connaissances organisationnelles est le fruit des interactions d’une collectivité sociale : celles-ci facilitent le développement et la création de connaissances organisationnelles en affectant les conditions nécessaires afin que les processus de combinaison et d’échange s’effectuent.
Avant d’attacher une importance toute particulière au rôle du capital social dans le processus de création de connaissances, il convient de définir ce concept qui a fait l’objet, ces dernières années, de nombreux développements.
Adler et Kwon [2000] révèlent dans leur analyse deux classes de définition du capital social. La première s’intéresse à la notion de capital social comme ressource facilitant l’action d’un acteur grâce à ces liens directs ou indirects dans un réseau social. La seconde considère quant à elle le capital social comme une caractéristique des liens internes d’une structure collective d’acteurs. Leur analyse suggère alors de traiter ces deux points de vue dans leur complémentarité et non dans leur singularité. En effet, selon ces auteurs, « un acteur collectif tout comme une firme est influencé à la fois par ces liens extérieurs avec d’autres firmes ou institutions et par la construction de liens internes : ses capacités à agir sont dépendantes des deux» [Adler et Kwon, 2000 : 93].
Adler et Kwon définissent ainsi le capital social comme « une ressource pour les acteurs individuels et collectifs, créée par la configuration et le contenu du réseau de leurs relations sociales plus ou moins durables » [2000 : 93]. Adhérant à cette optique, Nahapiet et Ghoshal [1998] le définissent quant à eux comme « la somme des ressources potentielles et actuelles encastrées à l’intérieur, disponibles à travers, et dérivées du réseau de relations possédé par un individu ou un groupe social. Le capital social comprend ainsi à la fois le réseau et les actifs qui peuvent être mobilisés à travers ce réseau » [1998 : 243]. A partir d’une réflexion sur le concept « d’embeddedness » de Granovetter [1992], Nahapiet et Ghoshal [1998] étudient le concept du capital social et en distinguent trois dimensions principales :
Une dimension structurelle : elle s’intéresse aux propriétés générales du système social et du réseau de relations, et décrit la configuration impersonnelle des liens entre les agents et les unités. La dimension structurelle du capital social peut être analysée à travers ces réseaux de liens. Ceux-ci facilitent l’échange puisqu’ils permettent d’accroître les canaux informationnels dans le réseau, facilitent par là même l’accès à l’information, limitent les temps de transmission et optimisent l’échange. La configuration du réseau est également importante puisqu’elle est associée à la flexibilité et à la facilité d’échange d’informations : en effet, elle est liée au nombre de contacts et à l’accessibilité qu’ils fournissent aux membres du réseau. La dimension structurelle du capital social affecte donc le processus de création de connaissances car elle permet l’accès des individus à l’échange d’informations. Dans une moindre mesure, les types de configuration du réseau influence la capacité à anticiper la valeur créée.
Une dimension cognitive : il s’agit de toutes les ressources fournissant des représentations partagées, des interprétations et des systèmes de pensée à des groupes d’individus. La dimension cognitive du capital social renferme les codes, langages et croyances partagés. Cette dimension est importante puisque, comme nous l’avons vu précédemment, la connaissance est socialement ancrée et contextuelle. Le partage d’un langage facilite l’échange et la combinaison de différentes façons. D’une part, le langage a une fonction directe et importante sur les relations sociales puisqu’il permet aux individus de communiquer et donc d’échanger des informations. D’autre part, le langage influence les perceptions : les codes et langages communs organisent la pensée et donc par là même, influencent la perception de l’environnement. Enfin, un langage partagé augmente ce que Kogut et Zander [1992] appellent les capacités à combiner les savoirs (combinative capabilities), c’est-à-dire les capacités à générer de nouvelles applications à partir de la connaissance existante et la capacité à anticiper la valeur créée par les processus de création de connaissances. Les travaux de Boland et Tenkasi [1995] ont aussi montré l’importance à la fois des perspectives prises et des perspectives construites dans la création de connaissances, démontrant par là que l’existence d’un langage partagé augmentait la combinaison de l’information. Au-delà de l’importance de langages et codes communs, des études ont montré que les mythes, histoires et métaphores permettaient elles aussi d’accroître au sein des communautés l’échange, la création et la préservation d’un riche ensemble d’interprétations et de compréhensions. Par exemple, Orr [1990] démontre comment la narration d’histoires, pleines d’insignifiants détails, facilite l’échange de pratiques et d’expériences tacites.
Une dimension relationnelle : elle décrit le type de relations personnelles que les individus ont développé à travers leur histoire. La dimension relationnelle du capital social influence de trois façons la création de connaissances : elle en facilite l’accès (et par la même l’échange), l’anticipation de la valeur créée et la motivation des individus à s’engager dans le processus de création de connaissances. Pour Nahapiet et Ghoshal, plusieurs composantes de cette dimension agissent sur la qualité de l’échange au sein du réseau social : la confiance, les normes, les attentes, l’engagement et l’identification. En effet, un nombre conséquents d’études ont montré que lorsque les relations entre individus sont fondées sur la confiance, les agents ont plus d’incitation à s’engager dans un échange social en général, et dans une interaction coopérative en particulier [Putnam, 1993 ; Fukuyama, 1995]. Dans une même logique définie par Coleman [1988], les normes existent lorsque le droit socialement défini de contrôler une action n’est pas détenu par l’acteur, mais par les autres. Elles représentent ainsi un degré de consensus dans un système social et ont un impact très important sur les processus d’échange d’informations, multipliant les opportunités d’échange et garantissant la motivation à s’engager dans de tels échanges. Enfin, l’accès, l’anticipation et la motivation à l’échange sont renforcés par les attentes, mais aussi l’identification, processus par lequel un individu se sert des références de son groupe comme un schéma comparatif de références. Dans cette optique, nous partageons l’opinion de Dyer et Nobeoka lorsqu’ils affirment que « la connaissance est générée, combinée, et transférée plus efficacement par des individus qui ‘s’identifient’ à un collectif » [Dyer et Nobeoka, 2000 : 352]. En effet, l’identification autorise d’une part la définition de conventions et de règles par lesquels les individus coordonnent leurs comportements et leurs décisions ; elle amplifie d’autre part le processus social d’apprentissage par la formation de valeurs et attentes communes [Kogut et Zander, 1996].

En synthétisant les conditions nécessaires à la création de connaissances décrites précédemment, il est possible de schématiser l’impact de chaque dimension du capital social sur les mécanismes de création de connaissances comme suit.

Figure 12 : Le capital social dans le processus de création de connaissances organisationnelles [adaptée de Nahapiet et Ghoshal, 1998]
L’analyse de Nahapiet et Ghoshal ainsi réalisée jette un pont entre le capital social et les processus de création de connaissances organisationnelles. Elle suggère notamment de prendre en compte l’importance relative de l’impact du substrat social dans ces processus. Toutefois, il convient de noter ici que la distinction entre les dimensions du capital social est purement analytique : Nahapiet et Ghoshal reconnaissent en effet que ces différentes facettes sont inter-reliées en de complexes et nombreux points. De plus, les dimensions du capital social ne s’auto-renforcent pas nécessairement mutuellement. Par exemple, comme le souligne Barlatier [2006], un réseau dont la dimension structurelle est efficace ne sera peut être pas mieux armé pour développer des liens cognitifs et sociaux forts étant donné l’importance de l’interaction directe et du face-à-face dans ce genre de relations [Nohria et Eccles, 1992].

Cette réflexion nous conduit alors tout naturellement à nous poser la question des mécanismes qui peuvent aider au développement du capital social et plus généralement aux processus de création de connaissances organisationnelles. Or, comme le souligne Dupouët [2003], il existe une corrélation entre le regain d’intérêt croissant pour la notion de communauté et celui dont bénéficie actuellement le concept de capital social au sein de nombreuses disciplines.
2.1.2.4. L’approche communautaire
Pour Lesser et Prusak [1999], les communautés de pratique permettent le développement du capital social en agissant sur ses trois dimensions. D’une part, elles fournissent aux individus l’opportunité de développer un réseau d’agents disposant de préoccupations communes, jouant ainsi sur la dimension structurelle du capital social. D’autre part, parce qu’elles sont organisées autour d’une problématique collective, les communautés entretiennent un langage partagé et des codes partagés, renforçant ainsi la dimension cognitive du capital social. Enfin, elles sont le lieu d’interactions fréquentes entre les agents, permettant donc de mettre en place une confiance et des engagements mutuels, caractéristiques même de la dimension relationnelle du capital social.
Les communautés de pratique, en renforçant chaque dimension du capital social, semblent ainsi influencer la création de connaissances organisationnelles. En outre, des travaux plus récents ont également souligné le rôle des communautés épistémiques sur la création et la codification de connaissances [Cohendet et al., 2001]. Puisqu’elles privilégient les interactions sociales et cognitives, nous proposons d’éclairer le rôle joué par ces communautés dans l’échange et la combinaison de connaissances.
Communautés de pratique et création de connaissances organisationnelles
Le concept de communauté de pratique a été introduit par Lave et Wenger [1990] pour parler de groupes de personnes engagés dans les mêmes pratiques et qui communiquent régulièrement entre eux sur ce type d’activités. Dans cette perspective, les communautés sont des groupes d’individus qui ont une histoire commune, interagissent fréquemment, partagent des connaissances et rencontrent des problèmes proches, au sein d’une même organisation [Wenger, 1998 ; Chanal, 2000]. Elles sont avant tout des dispositifs permettant à leurs membres de développer leurs compétences propres sur une pratique considérée. En ce sens, les communautés de pratique peuvent être vues comme des moyens d’améliorer les compétences individuelles en servant prioritairement les objectifs individuels de leurs membres. Cet objectif peut être atteint via l’échange et la mise en commun d’un répertoire commun de ressources [Wenger, 1998]. Les modes de stockage et de diffusion des connaissances dans ces communautés ne sont pas matérialisées sous la forme de connaissances explicites stockées sous forme codifiée mais plus précisément, ils prennent la forme d’échanges d’« histoires de guerre », de récits et de travail en équipe.
Par essence, les communautés de pratique sont « auto-organisées » [Cohendet et al., 2001]. Ce statut leur confère une capacité à s'organiser notamment par le processus de « négociation de sens » qui est à l'origine de la production de conventions, de formes, de points d'attention [Wenger, 1998]. Pour Wenger, la négociation de sens s’appuie sur une dualité fondamentale entre la participation des acteurs qui s’engagent dans des projets communs et un processus de réification qui consiste à créer des points de focalisation autour desquels la négociation s’organise. La réification peut prendre la forme d’un concept abstrait, d’outils, de symboles, d’histoires et de mots. En ce sens, le processus de réification est très proche de celui de codification et permet l’institutionnalisation d’un certain nombre d’éléments constituant le « répertoire partagé » [Thomas, 2006]. Wenger [ibid.] souligne que la continuité et la richesse des significations produites au cours des interactions vont dépendre d’un bon équilibrage entre participation et réification. Pour Thomas [ibid.], s’appuyant sur Chanal [2000 : 6], la dualité entre la participation et la réification signifie que « ces deux dimensions sont articulées dans une tension dynamique », en d’autres termes qu’il existe un feed back permanent entre connaissances tacites, articulées et abstraites.
Ainsi, la pratique permet la reproduction et la transformation progressive du sens au sein de la communauté, qui reposent quant à elles sur la dualité entre participation des acteurs à la vie sociale et réification. Trois dimensions permettent alors de caractériser les communautés de pratique :
L’engagement mutuel : l’appartenance à une communauté de pratique est le résultat d’un engagement des individus dans des actions dont ils négocient ensemble le sens. L’engagement mutuel est la source d’une cohérence dont une des missions de la pratique est de l’entretenir. Il est fondé sur la complémentarité des compétences, et sur la capacité des individus à connecter efficacement leurs connaissances avec celles des autres [Chanal, 2000]. Toutefois, cet engagement dans une pratique n’exclut aucunement la multi-appartenance à plusieurs communautés. Il y a ainsi six caractéristiques principales de l’engagement mutuel dans une communauté de pratique [Chanal, op. cit.] : des relations mutuelles soutenues (qu’elles soient harmonieuses ou conflictuelles) ; des manières communes de s’engager à faire des choses ensemble ; l’absence de préambules introductifs dans les conversations, comme si les interactions formaient un processus continu dans le temps ; savoir ce que les autres savent, ce qu’ils peuvent faire, et comment ils peuvent contribuer à l’action collective ; un jargon, des raccourcis dans la communication, des histoires partagées, des plaisanteries internes au groupe ; un discours partagé qui reflète une certaine façon de voir le monde…
Une entreprise commune : il s’agit du résultat d’un processus permanent de négociation, de l’aboutissement des pratiques sociales de la communauté. En effet, le fait de négocier des actions communes crée des relations de responsabilité mutuelles entre les personnes impliquées.
Un répertoire commun : il naît progressivement de l’engagement dans des pratiques communes et il entretient la construction sociale des significations. Ce répertoire partagé comprend des supports physiques, comme des dossiers, des formulaires, ou des éléments plus intangibles, par exemple des routines, des symboles, un langage spécifique [Vaast, 2002].
Chacune de ces dimensions influencent l’échange et la combinaison de connaissances et donc le processus même de création de connaissances. En effet, échange et combinaison nécessitent des interactions fréquentes entre les agents et donc l’instauration de langages et/ou codes communs. Or, selon Wenger [1998], la pratique est capable de produire elle-même de la structure et une signification aux actions. En d’autres termes, les agents qui participent à une communauté de pratique construisent, dans leurs interactions avec les autres membres, un langage, des outils, des symboles, des procédures mais aussi des relations implicites, conventions, et représentations du monde, qui sont partagés au sein de la communauté. En ce sens, les communautés apparaissent comme des lieux privilégiés de création de connaissances organisationnelles. De plus, comme nous l’avons vu précédemment, les communautés de pratique renforcent le capital social en agissant positivement sur chacune de ces trois dimensions. Le capital social permettant de renforcer les processus de création de connaissances organisationnelles, il est évident que les communautés de pratique influencent elles aussi ce processus. Il nous semble que les communautés de pratique, en renforçant le capital social, permettent de faciliter la combinaison. En effet, les communautés de pratique sont beaucoup plus caractérisées par des « liens forts », pour reprendre la terminologie de Granovetter [1985]. Elles renforcent ainsi la confiance et donc la volonté de coopérer entre les membres de l’équipe. Ces liens forts influencent les agents à partager leurs savoirs et donc à les combiner. De plus, il est possible à l’intérieur de ces pratiques de connaître le bénéficiaire de l’information, à quel moment ils en disposent et si celle-ci est valide. La réceptivité est donc plus grande tandis que dans le capital social, ce sont surtout les connections qui sont nombreuses. Les communautés de pratique facilitent ainsi l’échange et surtout la combinaison et plus exactement les capacités à combiner les savoirs [Kogut et Zander, 1992]. Elles participent donc au processus de création de connaissances et apparaissent comme un outil stratégique majeur à révéler.
Notons toutefois que les communautés de pratique, parce qu’elles sont principalement orientées vers leurs membres, tendent à produire principalement des connaissances tacites et hautement dépendantes de leurs contextes d’application. En ce sens, les échanges entre ces communautés et le monde extérieur semblent problématiques. Ntons alors que ces frontières sont d’autant plus étanches que le processus d’auto-organisation qui caractérise les communautés de pratique [Cohendet et al., 2001] produit une clôture organisationnelle, qui peut se révéler être un frein aux échanges entre communautés et par conséquent à terme aux processus d’apprentissage organisationnel qui ont besoin pour se développer de combiner des connaissances hétérogènes [Barlatier, 2006].
Ici, Dupouët [2003] a mis en évidence le rôle de la codification comme moyen de coordination entre différentes communautés. Selon cet auteur, la connaissance codifiée de premier niveau, celle que nous avons identifiée comme la connaissance articulée, en laissant la place pour une ambiguïté langagière, offre une plateforme sur laquelle des communications entre communautés différentes pourront avoir lieu. Ces connaissances préservent en effet les représentations idiosyncrasiques de chaque communauté, mais fournissent un espace de communication public dans lequel les interactions sont rendues possibles. En ce sens, ces connaissances codifiées peuvent être utilisées à la manière d’un objet frontière : ceux-ci sont définis par Leigh-Star et Griesemer [1989] comme « des objets à la fois suffisamment plastiques pour permettre de s’adapter aux besoins locaux et aux contraintes des différentes parties, mais également suffisamment robustes pour maintenir une identité commune entre les acteurs » [1989 : 390]. Ici, les objets frontières « ont différentes significations au sein des différents mondes sociaux mais leur structure est assez partagée entre ces mondes pour leur permettre d’être reconnu comme un médium de traduction » [1989 : 390]. Par la suite, la négociation de sens entre les communautés à travers ces objets frontières peut déboucher sur la création de connaissances abstraites. La création de telles connaissances peut induire des changements importants au sein des communautés dans leur mode d’apprentissage puisque la base de connaissances est modifiée. En effet, l’abstraction forte des connaissances accroît les possibilités d’interactions entre types de connaissances dans le cours de l’activité et ainsi les opportunités de création de connaissances [Cook et Brown, 1999].
Au-delà, le processus de codification peut améliorer la création de connaissances partagées entre les membres des communautés si ceux-ci s’engagent dans la réflexion sur le processus même de codification. Un tel engagement réflexif peut conduire à des modifications du comportement des membres des communautés dans leur façon d’appréhender l’objet de leur activité. Ce travail de réflexion peut alors conduire à la formation d’un nouveau type de communauté, une communauté épistémique, dont l’objet même est la création de connaissances [Amin et Cohendet, 2004].
Communautés épistémiques et création de connaissances
Haas [1992] définit « une communauté épistémique comme un réseau de professionnels disposant d’une expertise et de compétences reconnues dans un certain domaine et dont le but est d’établir une grammaire commune d’action à l’intérieur d’un domaine ou d’une certaine problématique » [1992 :3]. Dans son étude, les communautés épistémiques ont pour but de satisfaire le besoin d'information des institutions afin de réduire leur inertie liée à l’incertitude. Elles sont composées de membres issus de différentes disciplines reconnus pour leur expertise et compétence dans le domaine concerné (et ayant des expériences variées). Haas [1992] identifie quatre éléments clés constitutifs d’une communauté épistémique :
Une base de croyances normatives, de principes, qui fournissent une raison d'être à l’action sociale des membres de la communauté ;
Un cadre de référence commun issu du métier et de l’expérience, de la formation et de la pratique qui sert de base de référence lors de la résolution de problèmes liés à leur activité ;
Des notions de validité partagées, qui fourniront des critères d’estimation et de validation des connaissances créées ;
Une politique d’entreprendre commune, ce qui signifie ainsi que les membres de la communauté vont mettre en commun leurs expériences, leurs difficultés et mettre à profit leurs compétences respectives sans pour autant avoir la conviction que le résultat aura pour conséquence l’amélioration du bien-être général.
Ainsi, les communautés épistémiques sont impliquées dans une production délibérée de connaissances et comprennent « des agents qui travaillent sur un sous-ensemble mutuellement reconnu de problématiques liées à la connaissance et qui ont accepté au moins une certaine autorité procédurale commune comme essentielle au succès de leur activité collective de construction » [Cowan et al., 2000 : 220]. Les communautés épistémiques sont alors des groupes d’agents partageant à la fois un but de création de connaissances et un cadre commun permettant l’appréhension collective de cette activité.
Plus récemment, des travaux se sont davantage concentrés sur l’activité de ces communautés, c’est-à-dire les problématiques de création et de codification de connaissances [Cohendet et al., 2001 ; Cohendet et Llerena, 2001]. Selon ces auteurs, les communautés épistémiques sont définies comme un groupe d’agents partageant un objectif commun de création de connaissances ainsi qu’un cadre de référence commun. Cet objectif est à la fois interne à la communauté et externe dans la mesure où celle-ci participe à la fois à la diffusion des connaissances créées et à la diffusion des règles de création. Dans cette perspective, une des caractéristiques essentielles des communautés épistémiques réside dans l’existence d’une autorité procédurale, qui guide les interactions entre les membres de la communauté, canalise les apprentissages afin de faire progresser l’ensemble de la communauté vers son objectif cognitif. Elle participe également à fixer les règles d’appartenance à la communauté, évalue les contributions respectives des agents à l’objectif commun de création de connaissances et valide ensuite les connaissances créées.
Les communautés épistémiques sont donc structurées autour d’un objectif commun de création de connaissances grâce à un processus de codification et d’une autorité procédurale qui facilite l’atteinte de cet objectif. L’engagement et la capacité à contribuer effectivement à la création de connaissances constituent le lien social intra-communautaire, et la communauté épistémique représente un groupe social clos aux frontières délimitées [Barlatier, 2006].
Toutefois, l’autonomie et l’identité d'une communauté épistémique sont moins fortes que pour une communauté de pratique, ce qui développe le potentiel de créativité de la communauté : la communauté accroît son « savoir-voir », sa capacité de détection d'opportunités futures [Cohendet et Llerena, 2001]. Dans cette perspective, cette configuration organisationnelle favorise la création de connaissances en créant une synergie entre les membres hétérogènes, puisque les communautés épistémiques intègrent des individus provenant d’horizons différents qui vont interagir en son sein et ainsi favoriser la créativité du groupe [Leonard-Barton, 1995].

Au total, l’analyse que nous avons menée dans cette première sous section avait pour but essentiel de comprendre les mécanismes de création de connaissances organisationnelles. Pour ce faire, nous nous sommes dans un premier temps penchés sur les différentes acceptions de la connaissance dans la littérature en sociologie, économie et gestion afin d’appréhender ce concept protéiforme (cf. § 2.1.1.). Puis, à partir de la définition de la connaissance que nous avons retenue, nous avons constaté que le processus de création de connaissances organisationnelles est un processus fondamentalement social fondé sur des mécanismes d’échange et de combinaison (cf. § 2.1.2.). Cette perspective accorde ainsi un rôle majeur à la problématique de la codification et laisse entrevoir un défi majeur pour les communautés, qu’elles soient de pratiques ou épistémiques.
Parce que notre problématique de recherche consiste en la compréhension des mécanismes de création de connaissances dans la cadre de partenariats recherche publique / recherche privée, nous proposons dans la partie suivante d’appréhender ce cadre dans sa spécificité.
Au terme de cette revue de la littérature sur les approches de la Knowledge Based View, il est possible de dégager quelques définitions et fondements :
(1) La connaissance est distincte des données et de l’information. Tandis que l’information s’apparente à « un moyen et un matériau permettant de découvrir et de construire la connaissance », la connaissance revêt une profondeur supplémentaire : elle est une interprétation des informations filtrées par les individus et se définit comme capacité d’apprentissage et capacité cognitive.
(2) En outre, la connaissance, pour partie individuelle, revêt essentiellement un caractère collectif c’est-à-dire qu’elle est le fruit des interactions sociales Cette acceptation de la connaissance incite alors à définir les mécanismes de création de connaissances comme des processus sociaux d’échange et de combinaison dans lesquels le capital social joue un rôle primordial de support.
(3) Enfin, parce qu’elle permet la diffusion et l’échange de connaissances, la codification est centrale. Elle autorise, à travers ces phases d’articulation et d’abstraction, une explicitation des connaissances. Cependant, les problèmes d’interprétation que revêt la connaissance rendent ce processus complexe et non neutre.
(4) Ces définitions et fondements suggèrent alors de prendre en compte l’importance relative du concept de communauté. Parce qu’elles renforcent le capital social, les communautés jouent un rôle majeur dans les processus sociaux d’échange et de combinaison. Elles permettent notamment une construction de sens collectif nécessaire à la création de connaissances.
2.2. Les problèmes spécifiques des partenariats de recherche publique / privée dans le contexte des télécoms
Pendant longtemps, la vision générale du fonctionnement de la recherche s’est inscrite dans une image traditionnelle de l’innovation comme un processus linéaire, sans rétroaction, correspondant à des phases de recherche et développement, fabrication et vente des produits. Cette vision apparaît aujourd’hui comme fondamentalement modifiée. En effet, la plupart des économistes et de plus en plus de décideurs politiques s’accordent désormais sur l’idée selon laquelle la science et la technologie ne fonctionnent pas suivant un processus linéaire (de la science vers le marché ou du marché vers la science) mais un processus interactif, en réseau [Kline et Rosenberg, 1986, Callon, 1992] (cf. § 1.3.2.1.). Les politiques d’innovation, notamment au niveau européen, sont toujours des politiques qui financent la recherche, mais surtout qui favorisent la coopération entre acteurs et la diffusion et la valorisation des résultats [Levy, 2006]. En conséquence de ces politiques, les collaborations entre chercheurs académiques et industriels sont de plus en plus fréquentes. Pour autant, contrairement à l’optimisme de bon aloi que beaucoup expriment à propos de l’avenir de ce type de collaboration, « l’expérience acquise ces dernières années en matière d’interface montre qu’il convient de rendre plus efficaces ces interactions tant sont nombreux les cas d’échecs et de frustration réciproques » [Gonard et Durand, 1994 : 57].
Fort de ce constat, de nombreux chercheurs s’attachent depuis une dizaine d’années à l’étude de ce type particulier de coopération en R&D. Nous trouvons d’un côté des travaux qui mettent en évidence les bénéfices de ce type de collaboration sur la performance des entreprises, sur la productivité des activités de R&D, sur les capacités d’absorption ou encore qui s’intéressent plus spécifiquement aux résultats du point de vue scientifique, c’est-à-dire qui soulignent l’intérêt de la production de connaissances scientifiques. De l’autre côté, des chercheurs s’attachent quant à eux à mettre en évidence les risques et les coûts qu’engendre ce type de partenariat. Ces travaux montrent notamment les effets négatifs sur les programmes de recherche qui deviennent plus appliqués ou encore les restrictions en termes de création de connaissances qui peuvent naître. Il semble donc qu’il n’y ait pas de réel consensus dans la littérature sur les partenariats recherche publique / recherche privée tant au niveau des résultats qu’à celui d’analyse et de l’objet d’étude privilégiés (l’entreprise, un service de R&D, une université…). Ceci nous incite alors à reconsidérer cette forme spécifique de collaboration.
Dans un premier temps, nous nous attacherons à l’analyse du système d’innovation français en rappelant notamment les principales caractéristiques tant de la recherche publique que des relations entre universités et entreprises. Puis, nous étudierons le secteur dans lequel notre recherche se fonde, le secteur des télécommunications français. Ceci nous semble pertinent dans la mesure où de nombreuses études ont révélé des différences sectorielles dans l’analyse des coopérations entre science et industrie. Enfin, nous tenterons, comme le suggère Carayol [2003], de « rassembler les pièces du puzzle » c’est-à-dire de mettre en évidence les apports des différents travaux traitant des coopérations entre la recherche publique et les entreprises.
2.2.1. Le système de recherche et d’innovation français
Le système d’innovation français a pendant longtemps été perçu comme un système de recherche et d’innovation colbertiste marqué par le poids important de l’État dans la définition des politiques de recherche [Chesnais, 1993 ; Levy, 2005]. Néanmoins, il est possible d’observer son évolution depuis le début des années 80 [Mustar et Larédo, 2002]. Cette transformation a notamment été marquée par un accroissement des collaborations entre universités et entreprises mais également par une décentralisation de la recherche publique initialement concentrée en région parisienne et une diminution du rôle de l’État.
En nous appuyant sur les travaux de Levy [2005], reprenant ceux de Chesnais [1993], Papon [1998], Laredo et Mustar [1998, 2002, 2003], nous commencerons la description du système d’innovation français par celle de ses principales particularités avant les profonds changements initiés dans les années 80s. Puis, nous analyserons les récentes évolutions qui l’ont affecté.
2.2.1.1. Le système de recherche et d’innovation français jusqu’en 1980
Pendant longtemps le système de recherche et d’innovation a être décrit comme un système centralisé et colbertiste influencé par les politiques de planification à la française [Chesnais, 1993 ; Papon, 1998 ; Laredo et Mustar, 1998, 2002 et 2003 ; Héraud et Crespy, 2005]. Nous présenterons ici les caractéristiques de ce système de recherche publique, puis celles du système de recherche privée avant qu’ils ne subissent au début des années 80 de profondes mutations.
Le fonctionnement de la recherche publique
Une des caractéristiques principales du système de recherche français est la dualité qui différencie les grands organismes de recherche tels que le CNRS, et les universités qui assurent aussi la fonction de formation. Le CNRS a été créé dans l’objectif de regrouper des chercheurs professionnels à plein temps déchargés de charges d’enseignement. Mais, comme nous le verrons par la suite, cette distinction entre les organismes de recherche et les universités est de moins en moins nette. Plus précisément, le système de recherche public français regroupe plus de quatre-vingts universités, mais également une trentaine d’organismes publics de recherche, assez largement localisés autour de Paris, malgré l’existence de délégations régionales. On peut distinguer trois types d’établissements publics :
Les Établissements Publics à caractère Scientifique et Technique (EPST) regroupant des institutions de recherche non finalisées (comme en principe, le CNRS) ayant pour mission de produire des connaissances générales, aussi bien que d’autres organismes plus spécialisés tels que l’INRA (spécialisé dans la recherche agronomique) ou l’INSERM (spécialisé dans la recherche médicale), pour ne citer que les plus importants. Ces organismes ont, pour la plupart, été créés dans l'immédiat après-guerre.
Les Établissements Publics à caractère Industriel et Commercial (EPIC). Ce sont des organismes généralement rattachés à un ministère qui réalisent de la recherche finalisée. Leur mission est de travailler sur des objets liés aux grands programmes civils et militaires dans des domaines stratégiques pour l’État tels que l’espace (c’est le cas du Centre National d'Etudes Spatiales), le nucléaire (Commissariat à l'Energie Atomique) ou les télécommunications.
Des Établissements à Caractère Administratif (EPA).
En complément de ces trois formes d’établissements publics de recherche, le système de recherche français inclut également des fondations qui servent à financer la recherche ou encore des Groupements d'Intérêt Public (GIP) qui regroupent un certain nombre d’acteurs publics et/ou privés rassemblés autour d’un domaine de recherche particulier.
Au-delà de ces différents établissements publics consacrés uniquement à la recherche, le système académique français comprend également des établissements d'enseignement supérieur et de recherche rassemblés en deux grandes catégories qui ont longtemps été opposées : les Universités et les Écoles. Le système de recherche se caractérise ainsi par un deuxième type de dualité à l’intérieur même du système de formation, à savoir l’opposition entre les grandes écoles qui forment les ingénieurs et donc les futurs chercheurs du secteur privé et les universités qui assurent une formation plus générale et qui sélectionnent notamment les futurs chercheurs académiques. Cette dualité est associée à l’idée d’un certain élitisme du système français d’innovation, opposant d’un côté les grandes écoles qui sélectionnent les meilleurs éléments du système éducatif pour les former à travailler dans les administrations et les grandes entreprises françaises et de l’autre côté les universités dédiées à la formation de masse.
Dans cette perspective, les meilleurs éléments sont orientés vers les cursus des Écoles, lesquels préparent plus à la gestion et au commandement qu’à la recherche. Les universités se chargent de la formation du reste de l’enseignement supérieur et de la recherche qui n’est pas assurée par les EPST et les EPIC (et parfois en collaboration avec eux dans les Unités Mixtes de Recherche : UMR). Cette organisation duale a souvent été critiquée :
« La France s’est historiquement dotée, avec la dualité Grandes Écoles - universités, d’un système bicéphale de formation des élites qui n’a pas favorisé les mutations technologiques » [Dodet et al., 1998 : 142].
Le système de formation de l’enseignement supérieur français s’appuie sur de moyens à la fois humains (personnel et de nombre d’étudiants), et financiers variés. En parallèle à ces universités, le système de formation comprend également une cinquantaine de grandes écoles ou grands établissements tels les Instituts nationaux polytechniques, les Écoles Normales Supérieures, les Établissements Publics à Caractère Scientifique, Culturel et Professionnel, les Grands Établissements avec des statuts divers comme le Collège de France ou les Écoles françaises à l'étranger, ou encore le Groupe des Écoles des Télécommunications (GET). On peut également évoquer l’existence des IUT, des IUFM et des classes préparatoires qui contribuent à l’enseignement supérieur mais qui ne font pas de recherche.
Le soutien à la recherche privée
La recherche privée a longtemps été caractérisée par une intervention importante de l’État, notamment dans le cadre des grands programmes industriels. Le pouvoir politique sélectionne quelques secteurs considérés comme stratégiques et soutient des programmes industriels de développement et de recherche. Le plan de développement de l’industrie nucléaire ou des télécommunications lancé sous la présidence du Général de Gaulle dans les années 60, illustre ce type d’intervention publique. En parallèle de ces grands programmes, des institutions comme le CEA ou le CNES ont été fondées (avec des prolongements internationaux comme l’Agence spatiale européenne). Ces grands programmes ont été associés à un soutien aux « champions nationaux ». Les politiques à destination de la recherche privée ont donc principalement profité aux grandes entreprises nationales et se sont focalisées sur certains domaines stratégiques comme les télécommunications ou l’espace par exemple.
Jusqu'alors, les relations entre l’industrie et l’université sont restées très faibles. Les chercheurs universitaires ont, en effet, longtemps laissé aux ingénieurs le soin de collaborer avec l’industrie et cette dernière n’avait pas (autant que dans d’autres grands pays technologiques) l’habitude d’associer le monde académique à ses projets innovants. En outre, il n’existait pas ou peu d’incitations pour les chercheurs français à passer dans le monde de l’industrie.
2.2.1.2. Les mutations : vers un système incitatif
Selon Mustar [1998] et Laredo et Mustar [2003], il n’est plus possible de qualifier le système d’innovation français de système colbertiste. En effet, depuis les années 80, un certain nombre d’évolutions ont marqué le système et l’ont transformé de sorte que : « le colbertisme, s’il est encore présent, semble se réduire aux acquêts, c'est-à-dire à certains secteurs » [Mustar, 1998 :20].
Nous allons à présent voir plus en détail ces différents changements qui ont marqué le système d’innovation français dans les années 80 et 90. Notamment, nous verrons que ce système a été marqué par une disparition des grands programmes nationaux au profit des programmes de recherche européens, la fin des politiques de soutien aux champions nationaux au profit des PME-PMI. Le système est aussi caractérisé par un rôle de plus en plus important des régions dans la définition des politiques scientifiques, ainsi que par un accroissement du rôle des organisations non gouvernementales dans la définition des priorités de recherche du secteur public qui conduit finalement à un rapprochement entre le CNRS et les universités.
Ces changements ont été initialisés par les responsables politiques et économiques français, lorsqu’ils ont saisi l’importance des transferts de connaissances et de technologies entre scientifiques et industriels. La constitution d’un corpus théorique centré sur la problématique de la création, de la diffusion et de la valorisation des connaissances en économie et sociologie a, de ce point de vue, contribué à l’évolution des mentalités [Levy, 2005].
Une diversification des pratiques de recherche et d’innovation des entreprises françaises
Les modifications les plus radicales du système de recherche et d’innovation français remontent à la « Loi d'Orientation et de Programmation pour la Recherche et le Développement Technologique » du 15 juillet 1982, et à la création, en parallèle, du Conseil Supérieur de la Recherche et de la Technologie (CSRT). Cette loi concrétise un mouvement, amorcé depuis la fin des années soixante, qui pousse à renforcer les coopérations et les transferts de connaissances entre le monde de la recherche et celui de l’industrie (notamment les PME) et à diminuer le poids de l’État dans les politiques de R&D. C’est dans ce mouvement que s’est inscrite la création de l’Agence Nationale de Valorisation de la Recherche (ANVAR) en 1972. Cet EPIC fonctionne de façon décentralisée et dépend de la tutelle du ministère de l'Economie, des Finances et de l'Industrie ainsi que du Ministère délégué à la Recherche. Sa mission principale est de soutenir l'effort d'innovation des créateurs d'entreprises notamment en participant au financement de projets innovants portés à la fois par les PME et les laboratoires universitaires.
Parallèlement à la loi de 1982, on voit apparaître d’autres programmes de soutien à la recherche en entreprise par l’État, comme par exemple le Crédit d’Impôt à la Recherche (CIR) mais aussi des systèmes d’aides au transfert de connaissances mis en place au niveau des régions, comme par exemple, les Centres Régionaux d’Innovation et de Transfert de Technologies (CRITT) créés en 1983. C’est aussi durant cette période qu’est instauré le système de convention CIFRE.
Ces politiques de recherche et d’innovation à destination des entreprises cherchent d’une part à inciter les entreprises à collaborer avec les acteurs de la recherche publique, et d’autre part, à favoriser l’introduction de pratiques de recherche dans toutes les entreprises, y compris les petites. Ces politiques visent aussi à encourager la création de nouvelles entreprises innovantes, notamment par les chercheurs universitaires.
Le CIR s’est relevé particulièrement efficace pour inciter les entreprises (surtout les PME) à investir en R&D. Cette politique est également renforcée par une implication forte d’institutions existantes telles que l’ANVAR qui se focalisent sur les activités des petites entreprises innovantes. L’implication des entreprises dans la recherche s’est accompagnée d’un accroissement des relations de collaboration entre universités et entreprises. Ainsi, ces quinze dernières années, le nombre de contrats associant entreprises et laboratoires de recherche a été multiplié par dix [Laredo, Mustar, 1998]. Cet accroissement s’explique aussi par une place de plus en plus importante accordée aux offices de valorisation et de transfert de technologies des universités. On voit ainsi apparaître un rôle d’entreprenariat dans les universités.
Ce dispositif a été renforcé à la fin des années 90, notamment par l’intermédiaire de la Loi sur l’Innovation introduite par Claude Allègre le 12 Juillet 1999. Cette loi vise à favoriser la création d’entreprises innovantes et la mobilité des hommes et des femmes de la recherche vers l’entreprise, en améliorant notamment le cadre juridique et fiscal de ces pratiques de collaboration.
Ces politiques d’innovations cherchent à favoriser la création d’entreprises innovantes au sein des universités grâce aux incubateurs, aux pépinières d’entreprises et aux agences de valorisation qui contribuent à la résolution des contraintes et des aléas qui menacent l’entrepreneur universitaire innovateur. L’ANVAR va aussi jouer un rôle dans l’aide à la création d’entreprises innovantes en finançant et conseillant les porteurs de projets de création d’entreprises innovantes.
Si ces différentes mesures ont été prises en faveur des collaborations entre universités et entreprises, les politiques de grands programmes ont en revanche perdu de leur importance (au profit des programmes cadres européens sur lesquels nous reviendrons par la suite). Cette diminution des dépenses de recherche appliquée réalisée dans le cadre des grands programmes s’est accompagnée d’une forte diminution des dépenses de recherche militaire. Par ailleurs, cette moindre importance accordée aux grands programmes est également liée aux privatisations qui ont marqué la politique industrielle française durant les années 80. À cette époque, la France a privatisé ses principales entreprises. Depuis lors, l’État a également réduit son soutien en faveur des champions nationaux. Comme beaucoup d’autres pays, la France a privilégié les interventions en direction des petites entreprises.
Les transformations du système public de recherche et d’enseignement supérieur
En parallèle à la disparition quasi-totale des grands programmes, le système de recherche français a également été marqué par une transformation des EPST et particulièrement du CNRS avec une convergence des unités de recherche des universités et des organismes de recherche publique. Ce phénomène peut s’observer dans les unités mixtes de recherche qui sont des regroupements d’enseignants–chercheurs universitaires et de chercheurs CNRS. Ces équipes de recherche existent depuis le milieu des années soixante mais le principe a fortement été développé ces dernières années. Les universités s’orientent de plus en plus vers la recherche (surtout les plus grosses) et sont évaluées et financées en partie en fonction de leurs performances scientifiques. Depuis 1984, les programmes des laboratoires de recherche universitaires sont gérés dans le cadre de programmes quadriennaux. Ces contrats définissent pour une période de quatre ans les ressources financières et humaines accordées aux laboratoires. Ils définissent en quelque sorte des obligations mutuelles entre les universités et le gouvernement.
La loi sur l’innovation de 1982 a également été complétée par une multiplication des organismes orientés vers la recherche appliquée, et notamment les EPIC. On trouve notamment des organismes comme l’INRA qui a été la première institution de ce type (en agronomie) déjà crée en 1946 à la suite de la seconde guerre mondiale, ou l’IFREMER (pour la recherche maritime) créé suite à la loi sur l’innovation de 1982. Ces organismes sont financés à la fois par des contrats industriels et par les ministères de la recherche et de l’éducation, (et leurs ministères de tutelles, comme par exemple, le ministère de l’Agriculture pour l’INRA). La multiplication des EPIC traduit l’affaiblissement de la frontière entre organismes de recherche publics et universités.
Quant à la dualité du système de recherche et d’enseignement supérieur que nous soulevions précédemment, à savoir l’opposition entre universités et grandes écoles, celle-ci est elle aussi en train d’évoluer. De nombreuses écoles d’ingénieurs font de la recherche en collaboration avec les universités. On assiste alors à la création d’équipes de recherche dans les grandes écoles, ces dernières effectuant de la recherche appliquée, notamment en collaboration avec les entreprises.
L’introduction de nouveaux acteurs dans le système de recherche français
Ces vingt dernières années, le système d’innovation français a également été marqué par la montée en puissance de trois types d’institutions dans les pratiques de recherche et d’innovation des acteurs du système : les institutions européennes, les régions mais aussi diverses expressions de la société civile (associations de malades, fondations, ...). Ces trois types d’acteurs contribuent à la fois à financer la recherche, à favoriser les collaborations entre recherche publique et privée, et à définir des thématiques de recherche prioritaires pour les chercheurs.
En 1984, la Communauté Européenne a lancé le premier Programme Cadre Européen de R&D (PCRD) et six autres vont suivre jusqu’en 2004. Le septième programme est actuellement en préparation et devrait couvrir la période 2007-2017. Ces programmes sont fondés sur un principe de mise en réseaux et de collaboration entre la recherche publique (les universités et les autres organismes de recherche) et l’industrie (les PME comme les grandes entreprises). Ces programmes doivent également mettre en réseau les pays et les régions européennes. À l’occasion de chaque PCRD, la Commission Européenne est amenée à définir des priorités de recherche. Des consortia associant entreprises, laboratoires universitaires et instituts de recherche vont soumettre leurs projets à l'Union Européenne. Celle-ci va ensuite apporter un cofinancement et collaborer à un certain nombre de ces projets, après évaluation par des comités d’experts. L’objectif adopté en 2000 est de former entre les nations, mais aussi entre les régions, un « espace européen de la recherche ». Le cadre général de la collaboration en Europe a également influencé le système de recherche français par l’introduction dans les établissements d’enseignement supérieur et de recherche, du système de Licence Master Doctorat (LMD). Cette procédure vise à unifier le système d’enseignement supérieur en Europe.
La France s’implique aussi de plus en plus dans la diffusion et la valorisation des connaissances, selon un schéma non plus seulement national mais également régional. Au niveau national, la France s’est doté en 2000 de 19 CNRT (Centre nationaux de recherche technologique) qui ont pour objectif de créer les conditions d'une collaboration efficace entre les laboratoires de recherche publique et les centres de recherche des grands groupes industriels, pour développer les activités de recherche technologique.
Les régions contribuent quant à elles à la gouvernance de la recherche par une participation accrue à la définition des politiques d’innovations mais aussi de recherche, à travers le dispositif des Contrats de Plan États-Region (CPER). Ces contrats de plan ont été introduits lors de la loi d'orientation et de programmation pour la recherche et le développement technologique de 1982. S’inscrivant dans les processus de décentralisation et de déconcentration, ils jouent un rôle central dans les politiques de développement local [Crespy et Héraud, 2005] et permettent de définir les actions que l’État et la Région s’engagent à mener conjointement par voie contractuelle pendant la durée du plan. En pratique, les CPER sont des accords cadres passés entre le préfet de région, représentant de l’État, et le président du conseil régional. Ils fixent les axes stratégiques partagés par l’État et la région, définissent les programmes en fonction d’objectifs et indiquent les engagements financiers contractuels.
En complément au CPER, le rôle des régions dans les politiques de recherche et d’innovation s’exprime à travers un certain nombre d’institutions mises en place depuis quelques années. Ces différents organismes contribuent à l’élaboration et à la mise en œuvre des politiques de recherche et d'innovation en région. Ce sont d’abord les DRRT (Directions Régionales de la Recherche et de la Technologie) et les ARIST (Agences Régionales pour l’Information Scientifique et Technique) qui existent depuis 1974, mais aussi les Centres Régionaux d’Innovation et de Transferts de Technologies (CRITT) créés en 1983, qui cherchent à rassembler en réseaux l’ensemble des acteurs privés et publics de chacune des régions dans un domaine de compétence particulier. Récemment, le rôle des régions dans les politiques de recherche et d’innovation a été réintroduit dans le débat sur les politiques de recherche en France, grâce notamment à la mise en place de pôles de compétitivité en 2005. Ceux-ci se définissent « comme la combinaison, sur un territoire donné, d'entreprises, centres de formation et unité de recherche engagés dans une démarche partenariale […] et disposant de la masse critique nécessaire pour une visibilité internationale. Selon le cas, le partenariat s'organisera autour d'un marché, d'un domaine technologique ou d'une filière » [CIADT, 2004].

Cette analyse du système d’innovation français et notamment de ces évolutions met en évidence un net soutien des instances étatiques en faveur des partenariats entre recherche publique et entreprises privées. Cette analyse, confortée par celles précédentes sur les coopérations entre sphère académique et sphère privée, suggère au-delà de prendre en compte l’importance relative du secteur dans lequel ces partenariats sont menés. C’est donc à l’analyse du secteur des télécommunications français que nous allons à présent nous attacher.
2.2.2. Le secteur des télécommunications français
Le secteur des télécommunications français, longtemps porté par un opérateur monopolistique fort, caractérisé par une politique industrielle axée sur l'innovation et la recherche avancée, occupe une place mondiale relative bien supérieure à celle de l'économie française prise dans son ensemble [Marty, 2000]. Ce secteur a connu en quelques années une profonde transformation qui l'a conduit d'un marché monopolistique à un marché concurrentiel, d'une offre mono-produit à une offre multi-services et d'un environnement caractérisé par une forte stabilité technique à un schéma concurrentiel fondé sur l'innovation technologique [Brousseau et al., 1996 ; Marty, 2000] Nous analyserons ces transformations en deux temps : nous envisagerons dans un premier temps les mutations technologiques et institutionnelles de ce secteur puis nous analyserons les transformations du système français de soutien à l’innovation dans les télécommunications.
2.2.2.1. Les évolutions technologiques et institutionnelles
Notre objectif n’est pas ici d’effectuer une analyse historique de l’ensemble des développements technologiques qu’a connu le secteur des télécommunications mais d’aboutir à une délimitation des « frontières » de ce secteur. Mais avant, il convient de définir le terme de télécommunications. L’Union Internationale des Télécommunications désigne par télécommunications toute transmission, émission ou réception de signaux, d’écrits ou d’images, de sons ou de renseignements de toute nature, par fil, radioélectricité optique ou autres systèmes électromagnétiques. Le mot télécommunications recouvre alors deux types d’activités, une industrie dite de services et une industrie des équipements. Pour Delaunay Maculan, ces deux activités sont économiquement différentes mais pour autant intimement liées : « ces deux secteurs s’alimentent réciproquement car le développement et la diversification des équipements ont amené les entreprises publiques à adopter de nouvelles stratégies de commercialisation et d’offres de nouveaux services » [1997 : 24].
Les Etats-Unis sont considérés, à juste titre, comme le berceau de l’industrie des télécommunications et de la téléphonie avec notamment A.G. Bell qui déposa ses premiers brevets en 1876. A cette époque, l’industrie vivait dans un paradigme spatial-analogique [Marty, 2000] qui consistait à mettre à disposition de chaque usager un chemin unique permettant de transporter l’information point à point.
Ce paradigme technologique a été battu en brèche dans les années 60 avec l’apparition de la numérisation. Celle-ci permet à la fois d’améliorer la qualité du signal mais aussi d’accroître la capacité de transports des supports. Cette révolution technologique marque alors un tournant dans l’industrie des télécoms qui passent d’un système analogique (signaux continus) à un système numérique (manipulant des objets discrets). A cette même époque, de nouveaux supports de transmissions apparaissent avec les satellites, puis, à la fin des années 70, les fibres optiques. Ce premier changement est porteur d’une convergence avec l’industrie informatique, notamment via les réseaux informatiques. Une seconde révolution, après celle du transport des informations, se concrétise avec la commutation temporelle qui permet de commuter directement des signaux numériques et autorise le traitement de plusieurs communications en simultané, à moindre coût et avec un débit plus grand d’information.
Ces deux révolutions technologiques modifient radicalement le paysage de l’industrie des télécommunications. Deux nouvelles industries sont désormais incorporées à l’industrie des équipements [Delaunay Maculan, 1997] :
Les semi-conducteurs : à partir des années 60, l’industrie des télécommunications s’appuie sur les développements de la micro-électronique qui lui permettent d’accroître la capacité des centraux et la rapidité des opérations, d’économiser l’espace physique et d’abaisser la consommation d’énergie et les coûts de fabrication des équipements.
L’informatique : comme le souligne Marty, « la base de connaissances de l’industrie se déplace de l’électromécanique à l’informatique. La conséquence est la part croissante des coûts fixes (R&D et logiciels), l’obsolescence rapide des technologies et l’explosion de l’offre des services. L’apparition d’économies d’échelle d’une telle ampleur a modifié la taille du marché pertinent de l’industrie qui ne peut plus se concevoir sur une base uniquement nationale. » [2000 : 17].
Au final, il est important de retenir que ce secteur connaît une forte croissance depuis les années 1980, grâce aux progrès technologiques réalisés dans les domaines scientifiques dont ce secteur est le carrefour : (1) Mathématiques : le traitement du signal, la cryptographie et la théorie de l'information, du numérique...(2) Physique : l'électromagnétisme, les semi-conducteurs, l'électronique et l'optoélectronique, (3) Informatique : Génie logiciel, diffusion de la micro-informatique..., (4) Chimie : oxydo-réduction (gain de poids et autonomie prolongée des batteries des appareils portatifs). Ce constat met au-delà en évidence une des grandes spécificités du secteur STIC et qui tient au fait qu’il s’agit d’une filière « mult-technologies », qui prend appuie tant sur l’informatique, que la microélectronique ou encore les télécommunications …
Concernant les bouleversements du cadre institutionnel, nous nous contenterons, en prenant appui sur les analyses de Marty [2000] et Bomsel et Le Blanc [2000], de tracer quelques grandes tendances. Tout d’abord, les mutations technologiques ont induit des déplacements importants de la frontière entre monopole naturel et secteur concurrentiel. Ensuite, le système antérieur a vu son efficacité contestée au nom des lacunes de son contrôle (argumentation à la fois économique et idéologique) et de ses inaptitudes à satisfaire les nouveaux besoins. Le mouvement de libéralisation qui découla suivit en fait un schéma général unique, allant de la libéralisation du marché des équipements terminaux à la libéralisation de l’ensemble du secteur via les étapes de la libéralisation des services aux entreprises, celle de la téléphonie évoluée (les mobiles) et celle de la séparation du contrôle (régulateur) et de la gestion (opérateur).
2.2.2.2. Le système français de soutien à l’innovation dans ce secteur
Dans la partie 2.2.1., nous soulignions déjà les grandes transformations du système d’innovation et de recherche français, transformations qui se matérialisent notamment par l’abandon des grands programmes nationaux au profit des programmes de recherche européens, par la fin des politiques de soutien aux champions nationaux. Bien évidemment, le système d’innovation français dans le secteur de télécommunications a fait l’objet des mêmes modifications au cours du temps. Les mutations technologiques récentes ont incité les politiques à repenser le modèle français d'innovation afin de préserver l'acquis industriel français notamment en ce qui concerne la recherche et le développement.
Auparavant, le modèle français de recherche en télécommunications s’appuyait sur le rôle de pivot joué par le Centre National d’Etudes en Télécommunications (CNET). Outre son activité de recherche propre, celui-ci occupait une fonction d’interface auprès de la constellation des laboratoires publics (CNRS…), écoles (INRIA...) et universités impliqués dans la recherche et développement. Le CNET catalysait et organisait ces compétences dispersées notamment à travers la procédure des Consultations Thématiques Informelles (CTI). Cependant, le mouvement de privatisation du secteur des télécommunications a transformé le rôle de France Télécom et par voie de conséquence celui du CNET. Alors, comme le souligne Marty, « si le CNET se chargeait jadis d'assurer le transfert des innovations vers les services opérationnels de France Télécom et des autres industriels, il faut désormais que l'Etat se substitue à son action et favorise les coopérations entre les laboratoires et les industriels » [2000 : 17].
Le rôle de l'action publique n'est ainsi plus de monter de grands projets mais de favoriser leur lancement. C'est dans cette perspective qu'est créé en 1997 le RNRT (Réseau National de Recherche en Télécommunications). Le rôle du RNRT est de dynamiser l'innovation dans le secteur des télécommunications avec le double objectif de lier les avancées technologiques aux besoins des marchés et de favoriser les transferts de technologies vers les entreprises (cf. encadré 1 ci-dessous).
Les missions du RNRT
Les télécommunications sont un secteur stratégique pour la France qui présente un potentiel de création d’emplois. Dans l’économie mondiale, l’industrie française occupe une place de premier rang et sa compétitivité repose sur sa capacité à innover.
Deux objectifs ont présidé à la création du Réseau National de Recherche en Télécommunications :
dynamiser l’innovation en favorisant la confrontation entre les avancées technologiques et les besoins du marché, et en facilitant le transfert technologique vers les entreprises,
accompagner l’ouverture des marchés à la concurrence et l’évolution du rôle du CNET dans la recherche publique.
Le RNRT offre ainsi à la recherche amont en télécommunications un espace ouvert, créé pour inciter les laboratoires publics, les grands groupes (industriels et opérateurs) et les PME à se mobiliser et à coopérer autour de priorités clairement définies, pour conduire des projets avec le soutien des pouvoirs publics.
En favorisant l’émergence de produits et services nouveaux, le RNRT anticipe le développement de la société de l'information. Le RNRT s’intéresse entre autres au futur d’Internet (haut débit, qualité garantie, accès à tous les citoyens), aux prochaines générations de téléphones mobiles multimédia, à la convergence de l'audiovisuel, des télécommunications et de l'informatique, etc…
Les actions du RNRT
Un appel à projets est lancé chaque année selon des priorités clairement définies pour susciter de nouvelles actions de recherche coopératives, qui pourront recevoir un soutien financier des pouvoirs publics après labellisation par le comité d’orientation.
Des journées d’informations et des colloques sont organisés afin de préparer les thèmes prioritaires, de présenter l'avancement des projets en cours et d’ouvrir le dialogue au sein de la communauté de recherche en technologies de l’information.
L’animation du Réseau est en effet une des missions importantes du RNRT : diffuser l’information, faciliter les rencontres et les débats, se faire le relais d’initiatives intéressant l’ensemble de la communauté de recherche, …
Source :  HYPERLINK "http://www.telecom.gouv.fr/rnrt/pres/mission_01.htm"http://www.telecom.gouv.fr/rnrt/pres/mission_01.htm
Encadré 1 : Les missions du RNRT
Le rôle du RNRT est donc de labelliser des projets de recherche amont en télécommunications mettant en œuvre une coopération entre industriels et recherche publique en vue de soutenir la compétitivité française. Il s’agit de valoriser la recherche nationale en favorisant le transfert de technologies et le dialogue entre d’un côté la recherche amont et de l’autre la recherche et développement appliquée.
Parallèlement au RNRT, d’autres réseaux ont été mis en place : les Centres Nationaux de Recherche Technologique qui ont pour objectif de créer les conditions d'une collaboration efficace entre les laboratoires de recherche publique et les centres de recherche des grands groupes industriels pour développer les activités de recherche technologique. Ainsi, de juillet 2000 à mars 2004, 19 CNRT ont progressivement été mis en place par le Ministère de la Recherche.

Le système de recherche et d’innovation français a connu ces 25 dernières années de profondes évolutions qui tendent à diminuer le rôle de l’Etat et à valoriser les collaborations entre universités et entreprises.
Ces mutations s’observent notamment à travers la croissance des soutiens institutionnels pour ce type de partenariats : création de l’ANVAR, du CIR, des CRTT et plus récemment encore, des pôles de compétitivité.
Dans la filière télécoms plus spécifiquement, ces mutations ont conduit à amenuiser le rôle du CNET au profit d’institution tels les RNRT qui visent au dynamisme de l’innovation tant en amont, entre recherche publique et recherche privée, qu’en aval c’est-à-dire en direction des marchés.
Notons cependant que la filière télécoms est dotée d’une originalité particulière dans la mesure où elle se situe au carrefour de différents domaines scientifiques comme les mathématiques, l’informatique, la chimie … lui conférant de la sorte le statut de filière multi-technologique.
2.2.3. Les partenariats de recherche publique / privée : modalités et freins
Cette dernière sous-section consiste en une revue de la littérature des études en sociologies des sciences et en économie de la recherche et de l’innovation. Les travaux de ces deux domaines ont en effet cherché à appréhender les partenariats entre la science (le plus fréquemment l’université) et l’industrie (les entreprises privées). Parce que ce type de coopération a fait l’objet de nombreuses recherches, il nous semble primordial de mettre en exergue les principaux résultats et de situer notre problématique parmi cet ensemble. Par souci de clarification et pour éviter les listes à la Prévert, nous avons choisi de présenter les travaux qui nous semblaient les plus significatifs par rapport à notre problématique de conception d’une solution TIC pour faciliter la création de connaissances par les partenariats entre recherche publique et recherche privée. Notre analyse s’articule ainsi autour des quatre grandes thématiques suivantes.
2.2.3.1. Sphère publique et sphère privée : deux communautés différentes
Beaucoup de travaux traitant des partenariats science-industrie analysent ces relations soit du côté des universités, soit du côté des entreprises. Pour autant, ces études partagent un même constat selon lequel ces deux types d’acteurs disposent de systèmes de valeur différents. Dans cette perspective, il semble intéressant de s’attacher à l’analyse des règles de production des connaissances de ces acteurs, de leurs motivations à s’engager dans des collaborations ou des bénéfices qu’ils souhaitent obtenir par ce type de coopération.
Des acteurs aux systèmes de valeurs différents
Dasgupta et David [1994] ont cherché à différencier les normes de production de connaissances dans ce qu'ils nomment « République des sciences » par opposition au « Royaume des technologies ». Pour ces auteurs, ces deux communautés produisent le même type de connaissances (connaissances à la fois fondamentales et appliquées), mais elles possèdent des normes de production et de diffusion des connaissances différentes.
En s'inspirant des travaux de Merton [1968], Dasgupta et David ont montré que les scientifiques fonctionnaient en obéissant à la règle de priorité. Cette norme de la communauté scientifique précise qu’une fois une connaissance scientifique produite et diffusée, les rémunérations (en termes de publications et de reconnaissances par les pairs, voire des rémunérations monétaires) ne vont que vers le premier chercheur qui aura fait la découverte scientifique. Les chercheurs vont donc vouloir être les premiers à réaliser une découverte scientifique et cette norme de priorité va s'accompagner d'une norme de révélation volontaire et de diffusion des connaissances. Inversement, le « Royaume de la technologie » ne va pas chercher à diffuser les connaissances. En effet, les industriels préfèrent instaurer une règle de propriété qui leur permettra de tirer des rentes privées issues de leur innovation. Cette appropriation peut par exemple passer par celle de l’invention technique grâce aux brevets.
Dans la perspective définie par ces auteurs, la règle de priorité fournit une incitation à la diffusion des connaissances, caractéristiques de la « République des sciences ». A l'opposé, la règle de propriété va à l’encontre de la diffusion des connaissances et caractérise plutôt le « Royaume de la Technologie ». Dasgupta et David proposent alors des recommandations concernant la dialectique science et technologie : selon eux, il est nécessaire de maintenir la science et la technologie dans un équilibre dynamique entre la diffusion des connaissances scientifiques et l’appropriation des inventions.
Notons ici que cette étude met à jour les problèmes de propriété intellectuelle dans le cadre des partenariats recherche publique – recherche privée. En effet, tandis que les chercheurs souhaitent publier rapidement (règle de priorité), limitant de fait toute possibilité de protection, les industriels préfèrent au contraire assurer la protection et la propriété des résultats produits lors du partenariat.
Dans une perspective similaire, Latour et Woolgar [1979] ont introduit la notion de cycle de crédibilité de la science : un chercheur va commencer par être lu par ses pairs, et donc être reconnu par ceux-ci dans une deuxième étape. Cette reconnaissance des pairs va permettre aux scientifiques d'être récompensés, ces récompenses passant notamment par l'accès à de nouveaux moyens financiers. Ensuite, ces moyens financiers vont permettre d'accéder à de nouveaux équipements scientifiques qui eux-mêmes faciliteront la production de nouvelles données. Ces données permettront alors aux scientifiques de développer de nouveaux arguments scientifiques et donc de publier de nouveaux articles, qui seront ensuite lus par les pairs, … Ici, le but d'un chercheur scientifique sera donc de rentrer dans cette spirale de la crédibilité, qui va se renforcer en parallèle avec la création de nouvelles connaissances.

Ces analyses montrent alors que la sphère de la recherche publique et celle de la recherche privée ne développent pas les mêmes systèmes de valeur. En effet, tandis que les chercheurs obéissent à une règle de priorité qui s’inscrit dans un cycle de crédibilité, les industriels se définissent quant à eux par une règle de propriété, en totale contradiction avec les systèmes de valeurs propres à la recherche publique. Ces analyses nous amènent alors à nous poser la question des motivations qui poussent ces acteurs à coopérer.
Les motivations à coopérer
La sphère de la recherche publique est composée d’acteurs hétérogènes qui poursuivent des objectifs potentiellement différents lorsqu’ils prennent part à une coopération. Siegel et al. [2003] et Carayol [2003] proposent ainsi de distinguer trois types d’acteurs : les services de valorisation ou de transfert, les directeurs de laboratoires et les chercheurs. Leurs motivations à coopérer peuvent être synthétisées de la façon suivante :

ActeursObjectifsServices de valorisation ou de transfert
[Siegel et al., 2003]
[Thursby et al., 2001]Protection et commercialisation de la propriété intellectuelle des universités
Royalties et honoraires
Commercialisation des inventions
Signature de licence
Faciliter la diffusion de technologie et sécuriser le résultat des recherches futures
Recherche sponsorisée
Prix pour des brevetsDirecteurs de laboratoires
[Meyer-Krahmer et Smoch, 1998]Obtenir des fonds supplémentaires
Echanger des connaissancesChercheurs
[Lee, 2000]
[Siegel et al., 2003]Obtenir la reconnaissance de la communauté scientifique par le biais de publication ou de participation à des colloques
Assurer des financements supplémentaires pour les assistants de recherche et les équipements
Acquérir une meilleure visibilité sur ces propres recherches
Tester les applications de théories
Obtenir des fonds supplémentaires pour ces propres recherchesTableau 4 : Motivations de la sphère publique à coopérer
Ce tableau indique de profondes différences entre les entités même de la recherche publique. Ainsi, tandis que les acteurs des services de valorisation et de transfert se fixent comme premier objectif la protection de la propriété intellectuelle, les chercheurs, en totale contradiction, s’attachent quant à eux à publier au maximum leurs résultats. Ces travaux mettent alors en évidence la nécessité de considérer dans leur singularité les membres hétérogènes de la recherche, d’éclater la bulle d’analyse de la science.

Par la suite, Carayol [2003] recense les études qui s’attachent cette fois à mettre en évidence les motivations qui poussent les entreprises à s’engager dans des collaborations avec des organismes de recherche. Quatre principaux résultats sont exposés :
Le premier résultat résulte des recherches d’Adams et al. [2001] sur les centres de recherche coopératifs entre université et industrie : ils indiquent que la collaboration avec des académiques est souvent appréhendée comme un complément aux activités de recherche des entreprises et non comme un substitut.
S’appuyant sur une enquête sur 285 cas de projets coopératifs impliquant au moins une entreprise et un organisme de recherche, Caloghirou et al. [2001] ont démontré que les motivations des entreprises à effectuer de tels partenariats étaient les suivantes : partager les coûts de R&D, bénéficier des synergies en recherche dans le but d’économiser sur les coûts ou accroître la productivité en R&D, rester en ligne avec les développements technologiques majeurs, accéder à des ressources et compétences complémentaires.
Lee [2000] a quant à lui montré que collaborer avec des organismes de recherche permet aux entreprises, d’une part d’accroître leur accès à de nouvelles recherches ou découvertes, d’autre part, de faire des progrès significatifs en termes de développement de nouveaux produits et processus et enfin d’aider à la mise en place de relations plus étroites avec le monde de la science.
Les derniers résultats sont issus des travaux de Zucker et Darby [1996] qui mettent en exergue un effet positif sur la productivité en R&D des entreprises de la co-publication entre un acteur de la sphère publique et un acteur de la sphère privée.

Au terme de cette analyse des motivations qui poussent acteurs de la sphère publique et acteurs de la sphère privée à coopérer, des divergences notables apparaissent. En effet, il semble évident que les chercheurs s’engagent dans des partenariats principalement pour des raisons financières. En outre, lorsque ce n’est pas le cas, ils investissent dans de telles coopérations uniquement pour tester des éléments théoriques ou des outils qu’ils auraient conçus. En revanche, même si les industriels ne nient pas les aspects financiers, ils montrent de véritables besoins d’échange et de combinaison des connaissances avec la sphère de la recherche publique. Finalement, ces analyses montrent que les chercheurs s’inscrivent dans un processus relativement linéaire où ils testent des connaissances sans chercher véritablement à en créer de nouvelles en interagissant avec les industriels tandis que l’analyse des motivations de la sphère privée met véritablement en évidence un besoin d’échange et de combinaison. Il est toutefois intéressant d’une part de noter que l’importance des échanges de connaissances est également partagée par les directeurs de laboratoire, et, d’autre part, d’introduire une nuance à ce schéma que nous avons volontairement caricaturé, nuance qui sera développée lorsque nous exposerons les différentes logiques relationnelles des laboratoires.
Les freins
Au-delà des motivations à coopérer, il nous semble déterminant d’analyser parallèlement les inconvénients qu’éprouvent les chercheurs et industriels à coopérer.
Schmoch [1997], repris par Meyer-Krahmer et Schmoch [1998], a mené une enquête en Allemagne auprès de quelques enseignants-chercheurs, professeurs des universités appartenant à des champs disciplinaires différents. Son étude a révélé que les chercheurs académiques éprouvent des réticences à nouer des partenariats avec les industriels pour six raisons majeurs. Ces freins au nouage de partenariats recherche publique - recherche privée sont hiérarchisés comme suit :
Orientation à court terme : les chercheurs regrettent notamment la dimension à court terme des projets de recherche mis en œuvre par les industriels,
Cadres cognitifs des industriels limités : ils notent également que les bases de connaissances en recherche des industriels sont souvent limitées ce qui rend difficile les premières interactions pour la mise en œuvre de projets,
Restrictions à publier : en outre, la règle de priorité inhérente à la recherche publique pose souvent des difficultés dans ce type de partenariats dans la mesure où les industriels, qui obéissent quant à eux à une règle de propriété, préfèrent ne pas diffuser les résultats de ces coopérations,
Sujets souvent peu intéressants, ce qui rejoint les problèmes liés aux cadres cognitifs,
Problèmes administratifs,
Termes des contrats injustes.
De façon plus générique, Hall et ses co-auteurs, dans leur article de 2001, ont montré qu’il existe de véritables problèmes de propriété intellectuelle dans les collaborations entre les entreprises et les universités, et que, dans quelques cas, ces problèmes apparaissent comme une barrière insurmontable qui empêche toute coopération. Pour ces auteurs, de telles situations ont une probabilité plus grande d'apparition quand les acteurs ne peuvent anticiper les résultats ou quand la durée attendue de la recherche est relativement courte c’est-à-dire lorsque les découvertes de recherche sont certaines. Ces auteurs mettent également en évidence que ces probabilités de barrières sont d’autant plus fortes que l’entreprise leader a déjà effectué des partenariats avec des universités (notamment parce que celle-ci est plus consciente des difficultés qu’elle peut rencontrer).
Notons enfin que Schartinger et al. [2002] ont montré que des facteurs tels les dépenses en R&D dans l’industrie ou l’orientation des recherches scientifiques vers les besoins de l’industrie, ne déterminent en rien l’intensité des interactions.
2.2.3.2. L’incidence des modalités contractuelles
L’analyse des engagements contractuels est au cœur d’un certain nombre de recherches. Ici, nous avons choisi de présenter les évolutions majeures des modalités contractuelles. Puis, à partir des travaux d’Estades et al. [1995], nous dévoilerons une typologie des laboratoires en nous focalisant sur les différentes logiques relationnelles qu’ils peuvent développer. Enfin, nous nous intéresserons, à partir des travaux de Schartinger et al. [2002], aux impacts de ces modalités contractuelles sur les transferts de connaissances.
Evolution des modalités
Cassier [2002] s’intéresse aux évolutions majeures qu’ont connues les formes partenariales depuis une vingtaine d’années, dans le domaine de la biologie notamment. Dans son analyse, il effectue un parallèle entre les principales caractéristiques des contrats de recherche passés dans les années 1970 et ceux passés dans les années 2000.
Selon Cassier, les principales caractéristiques des contrats de recherche passés dans les années 1970 et 1980 sont les suivantes :
Les laboratoires établissent un grand nombre de contrats industriels, essentiellement bilatéraux, de taille et de montants généralement modestes (les plus importants couvrent une durée de 2 à 3 années et le financement d’une ou deux thèses). Ces contrats sont de deux types : des contrats recherche exploratoire avec des thèses et une assez grande latitude pour publier. Dans ce cas, « les entreprises s’arrangent aussi pour ne pas confier les sujets les plus chauds ou la partie la plus stratégique de leur recherche au laboratoire universitaire » [Cassier, 2002 : 7] ; des contrats de recherche et développement beaucoup plus confidentiels.
Des alliances plus durables, le cas échéant sur plus de 10 années, par le jeu du renouvellement régulier de contrats de recherche et dans certains cas par le rapprochement physique des chercheurs industriels.
Les laboratoires universitaires adoptent un certain nombre de dispositifs de protection de leur patrimoine scientifique qui leur permettent de conserver la maîtrise de leur stratégie et de leurs connaissances dans les partenariats (l’inscription dans les contrats de clauses d’antériorité sur les résultats, dépôt de leurs travaux non publiés chez un notaire …).
Les contrats étudiés parviennent généralement à préserver l’ouverture du système de recherche ceci notamment grâce à la négociation de délais de publication de quelques mois qui n’empêchent pas les chercheurs de participer à la compétition scientifique pour la priorité de publication. Il existe toutefois des cas manifestes de conflit entre la logique de divulgation et la logique de secret.
Dans la quasi-totalité des cas les laboratoires cèdent le droit à breveter à leur partenaire industriel. De fait, les royalties perçues par les laboratoires sont quasi-inexistantes.
A travers son étude de cas, Cassier observe, entre la fin des années 60, marquée par la négociation des premiers contrats industriels et la création des premières associations de recherche sous contrat, et le début des années 1990, un processus d’apprentissage mutuel entre universitaires et industriels pour gérer le mieux possible ces coopérations. Ces actions se reflètent notamment dans la volonté de séparer les recherches les plus ouvertes des contrats les plus confidentiels ou encore d’améliorer les transferts de savoirs entre les deux partenaires.
En ce qui concerne les années 2000, Cassier note plusieurs modifications profondes :
L’établissement de partenariats plus intégrés et de beaucoup plus grande taille, au sein de réseaux de recherche coordonnés de laboratoires coopératifs ou communs, voire de consortiums européens. Il s’agit encore de la mise en place de structures d’interface entre recherche universitaire et recherche industrielle (plates-formes technologiques, centres de transfert) et de structures dédiées à l’essaimage des laboratoires (parcs scientifiques, incubateurs).
Un très net renforcement du rôle de la propriété intellectuelle à la fois dans les partenariats industriels et dans la gestion interne des laboratoires publics et des universités.
Une modification des pratiques des chercheurs notamment liée au décret sur l’intéressement des chercheurs en cas d’exploitation d’une invention.
Mais aussi, une évolution sensible des pratiques de recherche avec la diffusion d’outils standardisés de codification des connaissances – cahiers de laboratoire- ou de normes de mesure et de qualité, sous l’influence conjointe des collaborations industrielles de plus en plus nombreuses et des politiques de rationalisation des pratiques de recherche à l’initiative des pouvoirs publics pourvoyeurs de fonds (les contrats européens) et des organismes publics de recherche (par exemple, les politiques de l’INRA et du CNRS en la matière).
Pour résumer, à travers l’étude historique des différentes formes de partenariat, Cassier [2002] montre une nette amélioration des conditions de l’apprentissage technologique (notamment avec l’établissement de partenariats plus intégrés et de plus grande taille). Cependant, il souligne à juste titre que les conditions de la propriété intellectuelle sont plus difficiles à négocier. Cette question des droits de propriété intellectuelle fait d’ailleurs l’objet d’un grand nombre d’article sur les coopérations entre science et industrie.
En outre, Cassier [2002] souligne dans son étude les nombreuses interrogations qui se font jour à l’heure actuelle sur l’impact des partenariats industriels sur la recherche académique et sur les nouvelles pratiques d’appropriation et de gestion des connaissances. Selon lui, « la controverse scientifique est aujourd’hui ouverte entre ceux qui mettent en avant l’amélioration globale des conditions de production et de transfert des connaissances et des innovations et ceux qui sont sensibles à certaines situations de blocage et qui soulignent les effets possibles d’une moindre ouverture du système de recherche » [Cassier, 2002 : 11].
Typologie des laboratoires et logiques relationnelles
Estades et al [1995] ont établi une typologie des laboratoires de l’INRA-Institut National de la Recherche Agronomique- à partir de deux critères :
l’indépendance thématique qu’ils rapprochent de la notion de traduction de Latour [1989] : ici, un laboratoire qui dispose d’une faible capacité de traduction traitera les questions telles qu’elles sont posées par le partenaire industriel (indépendance thématique faible). Au contraire, un laboratoire qui dispose d’une capacité de traduction élevée peut, à partir des questions du partenaire industriel, poser des problèmes et construire des programmes de recherche qui permettront de produire des connaissances génériques.
Les types de relations industrielles des laboratoires à savoir bilatéral vs multilatéral.
Cette combinaison permet alors aux auteurs de proposer trois types principaux de laboratoires relativement homogènes dans leur mode de fonctionnement :
Les centres de recherche pour la profession : ils sont composés essentiellement de laboratoires qui entretiennent des relations étroites avec la profession et l’interprofession. Ici, les chercheurs sont à l’écoute de la profession pour déterminer leurs thématiques de travail, ils sont spécialisés sur des thématiques précises. Dans de nombreux cas, les échanges avec l’industrie ne sont pas contractualisés.
Les concepteurs d’outils et de méthodes génériques : ce sont des laboratoires orientés vers la recherche fondamentale dont l’objectif souvent affiché est de mettre des recherches fondamentales ou des outils génériques à disposition de la profession. Les laboratoires de ce type sont souvent des centres de recherche de taille importante qui regroupent des équipes poursuivant des logiques différentes. Les objectifs sont clairement académiques, c’est la visibilité qui est recherchée.
Les laboratoires fondamentaux et spécialisés : ils regroupent des centres qui mettent en évidence la complémentarité entre l’organisme de recherche et l’industrie. Les chercheurs mènent dans ce type de laboratoire des recherches fondamentales qu’ils valorisent d’abord par des articles. Compte tenu de leur spécificité, les industriels font appel à leur expertise et à leur capacité de recherche pour tenter de résoudre des problèmes précis, plutôt à long terme.
Par la suite, d’Estades et al. [1995] mettent en évidence les différentes logiques relationnelles qui soutendent les contrats entre recherche publique et recherche privée. Selon ces auteurs, trois logiques sont à l’œuvre dans ce type de partenariat :
Une logique de proximité : dans ce cadre, les partenariats se nouent au départ sur une base ‘locale’, à partir de liens interpersonnels plus ou moins directs. Le contrat est défini de manière assez souple et le chercheur dispose d’un degré de liberté pour organiser les travaux. Ici, les auteurs soulignent que la construction et le renforcement de la confiance joue un rôle clé pour la coordination. Celle-ci tient aussi à l’importance des relations informelles et aux contacts fréquents entre les partenaires favorisés par une grande proximité. Ils notent en outre que réaliser des recherches académiques dans le cadre de ce type de relation nécessite, au niveau du laboratoire, une très grande aptitude à traduire les besoins techniques des entreprises en programmes de recherches spécifiques.
Une logique de marché : l’industriel cherche généralement la solution à un problème scientifique ponctuel. Dans ce cadre, il recherchera le laboratoire le plus compétent, sans logique de proximité géographique. Ici, le respect mutuel entre les partenaires joue un rôle important. En revanche, la confiance n’a qu’une faible importance. Il convient également de noter que le choix du partenaire par l’industriel se fait généralement au sein de réseaux (rencontre des acteurs dans le cadre de colloques scientifiques déterminante) ou par le biais des bases de données : le choix dépend donc de la visibilité du laboratoire et de sa notoriété scientifique. Les contrats stipulent le plus souvent un cahier des charges très précis pour une durée de 2 à 4 années. Notons enfin que la relation entre le laboratoire et l’industriel est symétrique c’est-à-dire que l’entreprise dispose de compétences complémentaires de celles du laboratoire.
Une logique de club : l’initiative de ce type de contrat vient généralement des laboratoires publics, d’instances gouvernementales ou de structures interprofessionnelles. Il s’agit généralement de contrats pré-compétitifs réunissant des entreprises concurrentes, et qui définissent seulement les grandes lignes, la coordination étant généralement prise en compte par un comité de pilotage.
L’analyse qualitative de ces auteurs apporte un éclairage nouveau sur les engagements contractuels dans les relations recherche/industrie. Elle articule en outre trois résultats majeurs :
D’une part que la confiance joue un rôle important dans les relations de proximité et non dans les relations marchandes et de club. En revanche, dans ce type de relations, le crédit scientifique et la réputation sont déterminants.
D’autre part, que contrairement aux relations de proximité, les relations marchandes et les relations de club sont tout à fait compatibles avec les publications scientifiques qui constituent un des éléments importants pour leur fonctionnement.
Qu’à terme, les risques d’un pilotage par l’aval sont forts dans le cadre des relations de proximité. Ils rejoignent alors les préoccupations de Cassier [2002] précédemment analysées sur les influences réciproques entre science et industrie.
Ici, il est intéressant de noter que les différentes logiques relationnelles développées par les laboratoires ainsi que le type de laboratoire auquel un chercheur appartient, peuvent largement influer sur ses motivations à coopérer avec la sphère de la recherche publique.
Impact des modes de coopération sur le transfert de connaissances
Ici, les auteurs renseignent les différentes formes d’interaction entre acteurs de la sphère publique et de la sphère privée. Plus spécifiquement, Schartinger et al. [2002] ont mis en évidence la corrélation entre type de connaissances échangées (connaissance tacite versus connaissance codifiée) et modes d’interaction. Cette corrélation peut être décrite comme suit :

Mode d’interactionFormalisme de l’enga-gementTransfert de connaissances tacitesContact en face-à-faceEmbauche de diplômés par les entreprises+/-+-Conférences ou événements entre entreprises et universités-+/-+Création d’entreprises par des académiques+++/-Publications conjointes-++Communications, réunions informelles-++Co-direction entreprises / universités de thésards+/-+/-+/-Formation auprès d’entreprises+/-+/-+Mobilité des chercheurs entre universités et entreprises+++Recherches collaboratives, programmes de recherche collectifs+++Contrat de recherche et consulting++/-+Usage des installations universitaires par les entreprises+--Usages des brevets académiques par les entreprises+--Achat de prototypes développés par les universités+--Lecture des publications, brevets …---Tableau 5 : Modes d’interaction et type de connaissances [adapté de Schartinger et al, 2002]
Les conclusions de Schartinger et al. sont les suivantes :
Les interactions en face-à-face permettent la création de confiance, d’un langage partagé et d’une culture commune de recherche et donc la création d’un capital social facilitant à la fois l’échange et la combinaison de connaissances. Ce processus est d’autant plus facile que les firmes et universités partagent une culture scientifique proche.
Les interactions en face-à-face sont positivement corrélées à l’échange de connaissances tacites.
La formalisation des interactions permet d’assurer un certain niveau de confiance entre les acteurs et donc de réduire l’incertitude. Elle permet en outre d’établir des objectifs communs et d’éviter les problèmes d’appropriabilité des résultats en contractualisant l’interaction.
Enfin, la durée des interactions, leurs fréquences et l’engagement des acteurs affectent le type, le volume et l’efficacité des échanges de connaissances.
Ces résultats nous semblent intéressants à trois niveaux. D’une part, ils renseignent sur les différentes modalités de partenariats entre universités et entreprises et indiquent, pour chacun de ces modes de collaboration, le degré de formalisme dans l’engagement. Les auteurs distinguent en effet les partenariats qui nécessitent beaucoup d’engagements contractuels tels les programmes de recherche conjoints ou les contrats de recherche, ceux moins formalisés comme la co-direction des doctorants ou la formation en entreprises et les partenariats quasi informels comme la participation à des conférences, la lecture d’articles … D’autre part, les résultats mettent en exergue les formes de coopération à privilégier pour assurer le transfert de connaissances tacites comme par exemple les réunions, les publications conjointes … Ceci montre que Schartinger et al. reconnaissent intrinsèquement l’existence de connaissances hautement spécifiques, connaissances qui nécessitent des formes particulières de coopération. Enfin, cette analyse met en évidence l’importance de la confiance mais aussi d’un langage et d’une culture commune dans l’échange de connaissances tacites entre recherche publique et recherche privée.
2.2.3.3. Les déterminants du choix des partenaires
Au terme de ces premières analyses, il nous semble nécessaire de nous intéresser plus spécifiquement aux variables qui déterminent le choix d’un partenaire. Cette question apparaît primordiale dans la mesure où le choix du partenaire conditionne à la fois les différents risques de comportement et de succès global du partenariat et également les compétences, connaissances et ressources qui y seront élaborées.
Même si la littérature sur les partenariats en R&D est vaste, force est de constater que peu d’auteurs s’intéressent au processus se faisant, et donc aux choix des partenaires dans le cadre spécifique des partenariats recherche publique-recherche privée. De fait, nous nous sommes orientés vers les partenariats d’innovation en général pour en premier lieu mettre en évidence les variables déterminant le choix d’un partenaire dans le cadre d’alliances inter-firmes, puis, en second lieu, retenir celles qui nous semblaient pertinentes dans notre cadre plus spécifique.
Au final, prenant appui sur les travaux de Cherni et Fréchet [2006], nous retenons quatre critères de choix pour les partenariats entre recherche publique et recherche privée :
L’engagement [Jolly, 2001]
Il se définit comme la disposition favorable des partenaires envers la coopération et la volonté des partenaires de fournir un effort afin de réaliser certains objectifs. L’engagement apparaît comme critère de choix dans la mesure où la volonté de participer à un partenariat peut être perçu comme un signal de son implication future dans le projet commun [Ariño et al., 1997]. Dans le cas des partenariats recherche publique – recherche privée, les partenaires ont rarement des objectifs similaires ce qui peut constituer un frein évident à la coopération et à la performance du partenariat. En revanche, si les partenaires conservent un fort intérêt à ce que les objectifs de la coopération soient atteints, les divergences peuvent être plus facilement surmontées. Ici, Cherni et Fréchet effectuent un lien entre engagement et confiance : « l’engagement, l’implication des partenaires va de pair avec le développement de la confiance. Une plus grande implication facilite les nouveaux investissements dans la relation alors même qu’ils n’ont pas été prévus lors de la conclusion de l’alliance » [2006 : 4].
Les ressources et les compétences
Ce critère, dans notre cadre spécifique de partenariat, est bien évidemment le plus important de tous puisque les acteurs s’engageant dans un partenariat de R&D le font précisément car ils manquent de capacités, ressources ou compétences pour exploiter seuls des opportunités. Ainsi, réussir à identifier quelles compétences ou d’une manière plus générale quelles ressources pourraient apporter un partenaire est un élément clé du succès de la collaboration. Ici, trois types de ressources et compétences peuvent être recherchées : (i) les compétences techniques, qui comprennent les brevets, documents, procédés, méthodes ; (ii) les compétences relationnelles, c’est-à-dire le réseau relationnel d’un partenaire (notons ici que la réputation est une variable importante souvent mise en évidence dans les partenariats recherche publique – recherche privée) ; (iii) les ressources financières, qui, dans le cadre de projet d’innovation par nature incertains et soumis à de longues phases de R&D, constituent un besoin essentiel. Notons ici que la taille du partenariat potentiel est souvent corrélée à la détention de ressources et apparaît donc comme un critère de choix [Cherni et Fréchet, 2006].
La compatibilité
Définie comme l’adéquation du partenaire aux caractéristiques de l’alliance ou de l’organisation qui s’apprête à la sélectionner dans le cas de partenariats inter-firmes, la question de la compatibilité sur les plans stratégiques et organisationnels dans le cadre des partenariats entre recherche publique et recherche privée est à l’évidence utopique. Pour autant, ce critère nous semble intéressant en regard des analyses précédentes. En effet, comme les laboratoires adoptent des logiques de développement différentes, il peut apparaître des cas où les logiques des partenaires publiques peuvent rejoindre ceux des partenaires privés. Tel est le cas par exemple des laboratoires fondamentaux et spécialisés (cf. § 2.2.3.2. –typologie des laboratoires-) pour lesquels Estades et al. [1995] mettent en évidence la complémentarité entre l’organisme de recherche et l’industrie, complémentarité qui laisse supposer une certaine compatibilité qui dépasse les plans stratégiques et organisationnels.
Cette variable est également importante dan notre cadre de recherche, non pas comme critère de choix, mais comme problème inhérent aux partenariats entre recherche publique et recherche privée : ici, les différences culturelles et le problème du langage commun sont prégnants.
Les relations antérieures
L’existence de relations antérieures est un élément de maîtrise du risque lors du choix du partenaire et détermine fortement la préférence pour ce type de partenaire dans l’avenir. En effet, dans la mesure où un partenariat s’est déjà déroulé de manière satisfaisante, l’acteur percevra un risque de défaillance moindre de la part de ce partenaire s’il devait y avoir une nouvelle collaboration [Cherni et Fréchet, 2006]. L’existence de relations antérieures doit s’entendre à deux niveaux qui se complètent : un premier, qui correspond à des expériences déjà effectuées entre les acteurs du projet et un second, qui peut être l’existence de telles pratiques mais avec un autre acteur. Dans le second cas, la simple indication d’expérience en termes de partenariats recherche publique – recherche privée signifie que les acteurs ont déjà appris à travailler dans ce cadre spécifique et donc qu’ils ont su surmonter les barrières fortes inhérentes à ce type de partenariats (propriétés intellectuelles, contrat, langage commun, différences culturelles …).
2.2.3.4. L’importance des proximités
Les travaux sur la proximité sont complémentaires aux études précédemment analysées qui mettent l’accent sur les modes de coopération dans une optique de transfert de connaissances et notamment de connaissances tacites dans les partenariats entre recherche publique et recherche privée. Ils s’accordent sur le fait que l’échange de connaissances, notamment de connaissances tacites, peut être amélioré si les individus interagissent en face-à-face ou s’ils partagent des valeurs communes, une même culture … Même si les travaux que nous allons à présent exposer ne sont pas tous spécialement dédiés aux coopérations entre recherche publique et recherche privée, ils apportent un éclairage intéressant sur le rôle de la proximité dans les partenariats en R&D, notamment dans l’échange de connaissances tacites.
Boschman [2004] propose de différencier cinq types de proximité qui peuvent encourager et améliorer les interactions entre institutions productrices de connaissances et la création de connaissances communes :
La proximité cognitive
La proximité cognitive correspond au partage d’un cadre de pensée commun, d’un système de valeurs partagés qui, comme le montrent les théoriciens de la connaissance, renforcera l’échange de connaissances tacites entre des individus ou, à niveau plus collectif, entre des institutions. Pour Cohen et Levinthal [1990], le développement d’une telle proximité permet aux acteurs d’améliorer leurs capacités d’absorption. Celles-ci correspondent à « la capacité d’une firme de reconnaître la valeur d’une information nouvelle, externe, de l’assimiler, et de l’utiliser à des fins commerciales » [Cohen et Levinthal, 1990 : 128] en d’autres termes, à l’existence d’un minimum de connaissances communes entre entreprises, qui leur permet d’absorber puis ensuite de créer de nouvelles connaissances.
Selon Boschma [2004], la proximité cognitive se trouve particulièrement à l’intérieur des firmes. Néanmoins, nous soutenons, en prenant appui sur les travaux de Nahapiet et Ghoshal [1998], que cette forme de proximité peut également prendre place à l’intérieur d’autres organisations productrices de connaissances, telles que les universités, mais aussi lors des collaborations entre universités et entreprises qui en collaborant, partageront les mêmes références cognitives. Notons cependant que Broschma attire l’attention sur les impacts négatifs qu’engendre une trop grande proximité cognitive. Selon lui, « les acteurs ont besoin de proximité cognitive sous la forme d’une base de connaissances commune s’ils veulent communiquer, comprendre, absorber et traiter les nouvelles informations. Cependant, une trop grande proximité cognitive peut nuire à l’apprentissage interactif, non seulement parce qu’elle diminue le potentiel d’apprentissage, mais également parce qu’elle accroît le risque d’enfermement et de « fuites » intempestives et indésirables vers les concurrents » [Boschma, 2004 : 12].
La proximité sociale
La proximité sociale se définit par le fait que les relations économiques entre acteurs sont insérées dans des relations sociales. Cette proximité se réalise en raison de l’existence de relations fondées sur la confiance réciproque entre les organisations qui partagent des connaissances. La prise en compte de la proximité sociale dans l’analyse des relations économiques est issue des travaux de Granovetter [1985] qui constatait que les relations économiques n’avaient pas lieu uniquement dans le cadre de relations de marché, mais qu’elles étaient intégrées dans des relations sociales, fondée sur une certaine confiance qui encourage les agents à rester honnêtes.
Les apports de la proximité sociale aux mécanismes de création de connaissances renvoient alors aux travaux de Nahapiet et Ghoshal [1998] sur le rôle du capital social mais également aux travaux sur le rôle des communautés dans ces processus (cf. § 2.1.2.3. et § 2.1.2.4.). Il convient cependant de noter qu’une trop forte proximité sociale entre les organisations peut engendrer une trop grande confiance entre les organisations et une sous-estimation des risques liés à la recherche [Boschma, Lambooy et Schutjens, 2002].
La proximité géographique
Malgré son acception très générale, le terme de proximité est généralement associé uniquement à la proximité géographique [Levy, 2005]. Pour Rallet et Torre [2004], celle-ci se définit comme : « la distance kilométrique entre deux entités (individus, organisations, villes …) pondérée par le coût temporel et monétaire de son franchissement » [Rallet et Torre, 2004 :26]. Cette proximité géographique est à même de favoriser l’existence d’interactions et d’échanges de connaissances (notamment de connaissances tacites). En effet, la transmission de connaissances tacites nécessite un transfert qui se fait souvent en face-à-face entre individus ou groupes d’individus qui interagissent et se communiquent leurs savoirs réciproques. Pour Pavitt, « les principaux avantages de la recherche académique ne se matérialisent pas dans des informations facilement transmissibles, des idées et des découvertes disponibles sur un même pied d'égalité et à n’importe qui. Au contraire, ils se trouvent dans les divers éléments de la résolution de problèmes, ce qui nécessite la transmission de connaissances, souvent tacites, par la mobilité entre les personnes et les rencontres en face à face. Les avantages ont donc tendance à être géographiquement et linguistiquement localisés » [Pavitt, 1998 : 797].
La proximité organisationnelle
Elle s’appuie sur l’idée que deux entités qui fonctionnent de la même façon pourront plus facilement partager des connaissances. Elle se définit ainsi comme « la mesure dans laquelle les relations sont partagées au sein d’un arrangement organisationnel (à l’intérieur ou entre organisations) » [Boschma, 2004 : 13]. Cette forme de proximité permet le partage d’un même aménagement organisationnel qui diminuera de fait les coûts de transaction nécessaires aux interactions entre organisations. Là encore, une trop forte proximité peut entraîner des effets non souhaités : « la proximité organisationnelle est nécessaire à la maîtrise de l’incertitude et de l’opportunisme en matière de création de connaissances au sein des organisations entre elles. Toutefois, une proximité organisationnelle excessive peut nuire à l’apprentissage interactif par effets d’enfermement et d’un manque de souplesse » [Boschma, 2004 : 15].
La proximité institutionnelle
Cette cinquième forme de proximité est liée à l’existence d’un cadre institutionnel commun qui se situe au niveau macro. Ce cadre institutionnel stable sera favorable aux interactions et à la création de connaissances. Mais ici aussi, une trop forte proximité institutionnelle risque de constituer un cadre trop rigide qui sera défavorable à la créativité et à l’esprit d’entreprenariat nécessaire à l’apparition d’innovations dans une région ou un Etat.


Cette revue de littérature, aussi exhaustive soit elle, apparaît être un point de passage utile dans le cadre de notre recherche notamment parce qu’elle dévoile les spécificités inhérentes aux partenariats entre recherche publique et recherche privée.
En effet, les travaux qui s’attachent soit à l’analyse spécifique des académiques soit à celle des industriels, montrent que ces acteurs constituent des communautés hétérogènes dont les motivations, buts et valeurs diffèrent largement. Dans le cas particulier de la sphère publique, ils montrent, au-delà, qu’il faut opérer à une distinction entre trois types d’acteurs qui forment cette communauté : les membres des organismes de valorisation et de transfert, les directeurs ou responsables d’organismes de recherche et enfin les chercheurs eux-mêmes.
L’analyse des différents engagements contractuels entre la science et l’industrie met quant à elle en exergue une évolution importante des contrats (tant formels qu’informels) ces vingt dernières années et souligne une difficulté majeure qui émerge à l’heure actuelle, celle de la propriété intellectuelle. Ces travaux accordent également une place prégnante à la confiance dans la coordination des partenariats, aux réseaux dans le choix du partenaire mais également à la traduction des besoins des différents acteurs avant ou au cours de la coopération. Ils montrent en outre que la visibilité des académiques et leur notoriété scientifique sont des atouts majeurs pour l’obtention de contrats de recherche. Enfin, ces travaux, notamment sur l’impact des modes de coopération sur le transfert de connaissances, permettent de renforcer l’idée selon laquelle il faut distinguer les connaissances tacites des connaissances codifiées et relancent le problème de la codification des connaissances. Leurs principaux apports peuvent être résumés à la mise en évidence de formes de coopération à privilégier pour l’échange de connaissances tacites, à l’importance de la confiance, du langage et d’une culture commune et également à la nécessité de prendre en considération les différents champs disciplinaires et secteurs d’activité dans l’étude des partenariats entre recherche publique et recherche privée.
Ces travaux sont largement complétés par ceux sur la proximité qui soulignent que proximité cognitive, sociale, organisationnelle, institutionnelle et géographique apparaissent comme des variables clés facilitant à la fois l’échange (accès et anticipation de la valeur créée) et la combinaison de connaissances (motivation et capacité à combiner).
Enfin, les travaux qui s’intéressent aux critères de choix apparaissent prégnants dans le cadre des partenariats entre recherche publique et recherche privée notamment parce qu’ils permettent un éclairage approfondi sur les variables en amont qui déterminent le choix des partenaires.
De façon schématique, nous pouvons résumer ces différentes analyses de la façon suivante :

Figure 13 : Synthèse de la littérature sur les partenariats entre recherche publique et recherche privée
Les partenariats recherche publique – recherche privée apparaissent comme des formes particulières de coopération qui engendrent des problèmes plus importants que les coopérations inter-firmes.
Dans ce cadre, l’absence de culture et langage commun mais aussi les modes de fonctionnement divergents des acteurs et la question des droits de propriété font entrevoir de véritables barrières à la mise en place de telles collaborations.
Pour autant, ces partenariats sont au cœur des processus d’innovation et apparaissent centraux dans la course technologique qui s’opère à l’heure actuelle.
Conclusion
L’orientation usage que nous avons retenue dès les prémices de ce travail nous a conduits à travers le premier chapitre à mettre en évidence la place centrale des pratiques de mise en ouvre de projets innovants. Cette perspective nous a ainsi conduit à effectuer (1) une analyse des conditions à la création de connaissances et (2) une analyse des problèmes spécifiques posés par les partenariats recherche publique – recherche privée. Plusieurs conclusions apparaissent alors :
Concernant la connaissance d’une part, nous avons mis en évidence, à travers la distinction entre données, informations et connaissances, que ce concept protéiforme nécessite d’être analysé dans sa singularité,
Concernant la gestion des connaissances, nous avons montré que ses mécanismes de création sont des processus sociaux d’échange et de combinaison, soumis à certaines conditions telles l’accès, l’anticipation de la valeur créée, la motivation des acteurs ou encore leurs capacités de combinaison. Dans cette perspective, nous avons également mis en évidence l’importance du capital social, le rôle accru des communautés mais aussi celui de la codification dans le développement de nouvelles connaissances,
Concernant les pratiques de partenariats entre recherche publique et recherche privée, nous avons mis l’accent sur leur originalité et qui tient à l’importance des différences entre ces deux types de communautés. Ces divergences se ressentent en effet dans des modes de fonctionnement, des motivations ou encore des attentes différentes à l’issue de ces coopérations. Pour autant, nous avons noté un net renforcement des actions de l’Etat pour favoriser la mise en place de ce type de partenariat d’innovation.

À l’issue de ce travail, nous sommes en mesure de proposer une synthèse des variables clés qui, dans le cadre des partenariats recherche publique / recherche privée, peuvent renforcer le capital social et donc accroître les potentialités d’échanges et de combinaison des connaissances, comme l’indique la figure suivante.

Figure 14 : La création de connaissances dans les partenariats recherche publique / recherche privée
Certaines de ces variables peuvent avoir un impact significatif (flèches pleines) en renforçant le capital social. Ainsi, la typologie des laboratoires influencent la dimension structurelle du capital social puisque certains types de laboratoire entretiennent des liens plus étroits avec l’industrie. Les flèches en pointillés traduisent des impacts plus faibles : c’est le cas par exemple des centres de recherche pour la profession qui entretiennent des contacts fréquents avec les industriels et développent en ce sens des relations de confiance
Les engagements contractuels, pour leur part, influencent positivement la dimension relationnelle du capital social mais jouent à un moindre degré sur sa dimension cognitive. Enfin, les modes de coopération et la complémentarité des ressources sont positivement corrélées à l’existence de codes, langages, mythes et croyances partagés et donc renforcent la dimension cognitive.
Pour éviter d’alourdir ce schéma, nous n’avons volontairement pas détaillé l’influence des différents types de proximité identifiés dans la sous section § 2.2.2.4. Pour autant, celles-ci exercent des influences notables sur les trois dimensions du capital social. En effet, la proximité cognitive renforce la dimension cognitive du capital social, les proximités sociales et organisationnelles accroissent la dimension relationnelle, la proximité organisationnelle développe quant à elle la dimension relationnelle, enfin, la proximité géographique agit sur les trois dimensions du capital social.
Dans les conditions ainsi décrites, il nous reste à nous interroger sur la conception de l’outil facilitateur que nous recherchons. La conception de cet outil se heurte à la complexité des pratiques que nous venons d’analyser. Nous verrons dans le chapitre suivant qu’une solution peut être la mise en place d’une démarche de co-conception qui place les usagers au cœur du dispositif.


Chapitre 3 : Une démarche de co-conception dans une approche usage : le cas KMP
Introduction

« N’hésitons pas à la dire, si on est décidé à concevoir et diffuser une nouvelle TIC selon la rationalité de la performance techno-sociale, elle ne sert à rien. Penser que le produit nouveau que l’on a conçu est tellement parfait techniquement qu’il va par son impact se diffuser largement en transformant profondément la société qui va (doit) l’utiliser […] n’a aucune utilité ».
Mallein [1997 : 10].

Dans le premier chapitre de cette recherche, nous avons montré que de nombreux auteurs en SI souhaitent à l’heure actuelle dépasser le double déterminisme « technologique versus sociologique » pour s’orienter vers le développement de nouvelles méthodes d’analyse des usages. Ces travaux s’accordent sur une définition de l’usage entendu comme « un phénomène complexe qui se traduit par l'action d'une série de médiations enchevêtrées entre les acteurs humains et les dispositifs techniques » [Breton et Proulx, 2002 : 255]. Dans la perspective retenue par ces auteurs, adhérer à une approche usage implique le postulat suivant : les contenus diffusés via un support particulier ou les représentations sociales d'une invention technique ne prennent vraiment sens qu'à travers ce que les usagers font de ces messages, de ces médias ou avec ces objets techniques dans leur contexte de travail. Dans ce cadre, il est alors nécessaire de dépasser le stade de l’analyse des besoins des usagers pour prendre en considération leurs pratiques effectives et les intégrer dès la phase amont de la conception. L’intégration des usagers dès les premiers moments du cycle de conception conduit alors à développer une démarche de co-conception orientée usage.
La mise en place d’une démarche de co-conception orientée usage devient dans ce cas fondamentale. Ce chapitre vise précisément à proposer un modèle de co-conception qui autorise la prise en compte des pratiques des acteurs de la recherche publique et de la recherche privée, par essence hétérogènes. Cette démarche sera mise à l’épreuve des faits dans le cadre du projet KMP.
Dans une première section, nous nous intéresserons aux démarches traditionnelles de conception. Nous verrons alors que si elles promeuvent une intégration de plus en plus importante des usagers, elles ne vont toutefois pas jusqu’au bout de cette logique ce qui nous conduira dans le cadre de ce chapitre à proposer un renforcement de ces approches. Nous mobiliserons pour ce faire les théories de la traduction et de la structuration. Ces théories sont un point de passage important car elles nous renseignent sur comment intégrer les usagers à la conception. Cependant, leur apport reste limité sur la conduite de l’activité même de conception qui est pourtant nécessaire. Précisément, parce qu’elle place la conduite du projet de conception au cœur de ses préoccupations, la méthodologie de recherche intervention sera mobilisée. La recherche intervention est en effet utile à un double point de vue : d’une part, elle fournit un canevas pour la conception et d’autre part, elle oriente le chercheur dans ses choix d’interactions avec le terrain comme nous le développerons dans la deuxième section.
La présentation du contexte d’intervention de notre recherche, le projet KMP, sera enfin développée dans une troisième section. Elle sera notamment l’occasion de nous interroger sur la validité des résultats de cette recherche.

3.1. L’intégration des usagers dans la démarche de co-conception
La démarche de co-conception que nous proposons s’appuie sur l’analyse des usages effectuée dans la première section de cette recherche et s’articule en plusieurs étapes. Dans un premier temps, nous développerons les travaux qui placent la conception au cœur de leur problématique et nous mettrons en évidence la place croissante qu’accordent ces travaux aux usagers dès la phase de conception des innovations. Puis, dans un second temps, nous montrerons les apports de la théorie de la traduction à une démarche de co-conception orientée usage. Enfin, nous proposerons une articulation des théories de la traduction et de la structuration pour construire notre démarche de co-conception : nous verrons alors que celle-ci permet de dissocier les boucles de co-conception des trajectoires d’usage, en d’autres termes, qu’elle s’appuie sur une analyse à un double niveau, celui du monde des concepteurs et celui du monde des usagers.
3.1.1. Les situations de conception, caractéristiques générales
L’analyse des processus de conception connaît depuis de nombreuses années des développements importants. Souvent appréhendée sous l’angle de la gestion de projet innovant, elle est aujourd’hui marquée par une volonté croissante de prendre en compte les usagers dès les prémices de la conception.
3.1.1.1. Les démarches traditionnelles
Traditionnellement, la question de la conception de nouveaux produits ou services est analysée en sciences de gestion sous l’angle de la performance des processus de création et plus spécifiquement sur les formes de coordination collective que nécessitent ces processus. De nombreux auteurs travaillant, de façon plus ou moins directe, sur les activités de conception en entreprises [Perrin, 1999 ; Midler, 1993 ; Moisdon, 1997 ; Benghozi, 1990] ont alors mis en évidence trois constats [Midler, 1996] :
L’activité de conception présente des spécificités : elle nécessite des formes de coordination adaptées qui diffèrent des activités de production ou d’échanges de produits existants ;
L’analyse historique des processus de conception montre des évolutions différentes selon les secteurs d’activité et les institutions dans lesquels ils se déroulent ;
Les dynamiques en cours s’appuient largement sur une hybridation des différentes méthodes qui ont jalonné l’histoire des processus de conception.
Dans cette perspective, Midler [1996] propose de caractériser « les situations de conception » en six points :
Une situation de conception est « une heuristique tendue par une finalité globale » : cette proposition indique qu’en début de conception, la construction et l’affirmation d’une finalité apportent une orientation aux activités de conception. Celle-ci nécessite cependant un important travail de définitions successives, de plus en plus détaillées et spécifiques pour arriver au produit final. Le processus de conception se matérialise ainsi par rapport à un objectif, mais le résultat projeté n’est pas défini dès le début : du fait de la nature complexe du problème de départ et de la diversité des solutions possibles, il implique donc, comme le souligne de Terssac [1996], la co-construction du problème et de la solution.
La conception est « une affaire de communication et d’intégration de différentes logiques » : puisque aucun acteur ne détient à lui seul la clé de la réussite d’une innovation, son développement suppose la contribution de spécialistes différents, disposant de logiques hétérogènes. La qualité de leur communication devient dès lors une condition nécessaire de l’efficacité du processus de conception.
Les processus de conception doivent naviguer dans l’incertitude. Ceci est la résultante des deux propositions précédentes : d’abord la conception est un processus de résolution de problèmes souvent inconnus au départ, ce qui conduit à de l’incertitude quant à l’objectif même du processus ; ensuite, du fait de l’appartenance des acteurs de la conception à des mondes différents, la confiance n’est souvent pas instaurée et donc les intérêts ne sont pas nécessairement partagés.
La conception implique convergence et irréversibilité : le temps de la conception est souvent un intervalle donné marqué par un début et une fin. Pendant ce temps, le travail de conception conduit à une accumulation de connaissances sur le produit conçu, alors que chaque choix de l’équipe mobilise des ressources irremplaçables, limitant ainsi les marges de liberté de la conception et rendant le processus irréversible.
Chaque projet de conception est singulier et unique : cette singularité peut être vue à la fois comme un inconvénient dans la mesure où la multiplicité des réponses possibles à un problème peut être créatrice d’ambiguïté et de malentendus ; en contrepartie, elle implique qu’aucune règle professionnelle ni solution soient a priori validée, ce qui rend la négociation et le compromis plus facile.
L’espace de la conception est « ouvert et fluctuant » : il est difficile de séparer le projet de conception de l’organisation voire même du reste du monde. En effet, les membres ont une influence plus ou moins marquée selon les questions posées et les réponses proposées, si bien qu’il est difficile d’assigner des frontières nettes et stables à des projets de conception.
Cette définition de la situation de conception proposée par Midler est d’une grande richesse, en particulier parce qu’elle ne confine pas l’activité de conception au développement de produits. Elle l’ouvre au contraire à toutes les activités orientées vers une finalité singulière. Elle est également intéressante dans la mesure où elle éclaire la nature des activités de conception et leurs modes de gestion.
3.1.1.2. L’intégration des utilisateurs : vers la co-conception
Un regain d’intérêt au sein des théories de la conception émerge actuellement pour l’intégration des utilisateurs dans les processus de conception. Deux démarches nous semblent particulièrement fécondes :
Les méthodes centrées utilisateurs d’une part. Elles sont considérées par la communauté HCI (Human Computer Interaction) comme un levier de découverte des besoins et des pratiques des utilisateurs et surtout, comme un outil autorisant à penser, dès les premiers moments du cycle de vie du projet de conception, l’encastrement du système à concevoir dans les pratiques de travail ;
Les démarches dites de conception participative d’autre part. Ces dernières introduisent un infléchissement progressif des modèles de la conception et accordent un rôle central à l’établissement d’une intelligibilité mutuelle entre les co-concepteurs.
Les méthodes centrés utilisateurs : les scénarios d’usage
Points de rencontre entre le monde des concepteurs et celui des usagers et vecteurs clés de communication entre eux, les scénarios d’usage [Young et Barnard, 1987 ; Young et al., 1989 ; Carroll, 1990] sont présentés par la communauté HCI comme des outils privilégiés d'aide à la conception [Jarke, Tung Bui et Carroll, 1998].
Faisant écho à ces travaux, nous considérons que les scénarios d’usage ont pour vocation première de décrire la situation dans laquelle l’usage de l’outil, en cours de conception, va se construire et prendre sens [Pascal et Rouby, 2006]. Décrire cette situation revient à anticiper le plus intelligemment possible les modalités de l’interaction future entre la technologie et ses utilisateurs, tenant compte du fait que cette interaction n’est pas suspendue dans le vide mais consubstantielle d’un contexte d’usage donné. Décrire cette situation c’est-à-dire formaliser les conditions sociales et matérielles dans lesquelles l’usage futur va se bâtir suppose de construire un modèle de scénarios. Dans cette perspective, la communauté HCI s’appuie sur la théorie de la cognition distribuée pour identifier des items pertinents pour construire les scénarios et finalement, les renseigner.
Dans la section 1.2.2., nous avons mis en évidence les apports de la théorie de la cognition distribuée à une problématique usage. Dans cette perspective, nous avons notamment montré que la théorie de la cognition distribuée constitue un point de passage utile pour deux raisons essentielles. D’une part, l’usage de la technologie y est vu comme un construit social, que ce soit du point de vue de sa conception ou de celui de son implémentation, le succès de cette dernière dépendant alors de la compatibilité ou non de la technologie avec le système fonctionnel d’accueil. D’autre part, et précisément parce que l’usage se construit in situ, l’environnement d'usage pertinent mérite d’être étudié. Ce dernier est analysé sous l’angle du contexte social et surtout matériel qui va gouverner l’interaction outil/utilisateur, plus précisément sous l’angle des pratiques récurrentes de travail collaboratif médiatées par des outils d’aide à la cognition humaine.
La théorie de la cognition distribuée accorde ainsi une place toute particulière aux dimensions interactive et cognitive des pratiques de travail, notamment le contenu et la structure des représentations requis pour permettre le bon déroulement de la coopération. Sur cette base, les concepteurs disposent d’un cadre de référence théorique pour décrire de façon approfondie un micro niveau de collectif et construire des variables destinées à recueillir les données empiriques pour élaborer des scénarios d’usage. La prise en compte de ce micro niveau est d’autant plus déterminante dans le cas qui nous occupe que les acteurs de la recherche publique et de la recherche privée ne disposent pas nécessairement des mêmes systèmes de valeur et cadres cognitifs.
Prenant appui sur le cadre de la cognition distribuée, il est alors possible de construire un modèle de scénario sur la base des items suivants, fréquemment utilisés par la communauté informatique [Pascal et Rouby, 2006] :
L’utilisateur de la solution technologique : identification, statut, rôle, caractéristiques personnelles, notamment celles qui sont susceptibles d’impacter ses attentes concernant le contenu et la structure des connaissances cristallisées dans l’outil (formation, expérience …),
Les tâches qu’il aura à réaliser à l’aide de la solution technologique : identification et description des tâches (la panoplie des actions possibles ; les éléments qui en garantissent la réussite), le type de déroulement (ex. : séquentiel, itératif, en parallèle),
Les autres acteurs partenaires qui prennent part à la réalisation de ces tâches et leurs attentes,
Les ressources mobilisées dans la réalisation des tâches, principalement celles qui sont à base de connaissances (préciser leur nature, notamment technologique, l'objectif de leur utilisation et leur finalité, leur distribution entre les acteurs qui sont parties prenantes de l’activité),
Les informations et flux d’informations: type d’informations recherchées ou attendues, type d’informations fournies. Il s'agit notamment de préciser le contenu et la structure des informations propres à la réalisation de chacune des tâches: informations nécessaires, degré de description requis, structure des informations lorsqu'elle s'avère spécifique,
Les tâches réalisées et leurs outputs : identification des délivrables, des types de délivrables (ex. : document), le design requis ; identification des bénéficiaires, en définitive tout ce qui peut aider les concepteurs à préciser les prescriptions des utilisateurs en termes de structure et de contenu de l’information requis.
Ces items caractérisent en définitive le système fonctionnel au sein duquel va se construire l'interaction entre la technologie à implémenter et ses utilisateurs. Ils permettent dès lors de décrire de façon approfondie un premier niveau de collectif et autorisent donc une première intégration des usagers dès la phase de conception.
Cependant, même si les auteurs de la cognition distribuée ne nient pas l'existence d'un système englobant, social ou culturel, façonnant notamment les schèmes de représentations des individus, ils n'y attachent pas d'intérêt spécifique. En particulier, le cadre de référence de la cognition distribuée ne permet pas de formaliser les profondeurs organisationnelle et institutionnelle dans lesquelles les activités et les tâches sont enchâssées. Cette profondeur organisationnelle qui s’analyse certes en regard des cadres de référence communs, construits à l’échelle de l’organisation, se comprend également par l’intermédiaire des normes d’action et de l’allocation des ressources entre les acteurs.
Ici, il nous semble que l’analyse de ce niveau englobant est possible par le recours à la théorie de la structuration qui pourrait constituer un point d'ancrage fécond. Au-delà, nous reconnaissons, à l’instar de Darses [2004], que cette première intégration des usagers, bien que primordiale, n’est pas suffisante et qu’il est donc nécessaire de recourir à des démarches qui intègrent véritablement les usagers dans le processus de conception.
Les démarches de conception participative
La mise en place de démarches de conception participative est notamment motivée par la volonté de mieux prendre en compte les besoins d’usage des utilisateurs. En effet, comme nous l’avons déjà souligné dans la section 1, la non-prise en compte des usages dans les processus de conception a conduit à des échecs successifs dans la période récente. En outre, l’intégration des usagers dès la phase de conception des innovations est préconisée par l’école de la traduction. La conception participative a pour fondement l’ingénierie concourante initiée dès les années 60 et s’est développée dans les années 70 en Suède. Elle a connu depuis deux profondes modifications (dans les années 80 et 90) pour finalement se définir comme un processus de conception collectif c’est-à-dire comme « une activité de conception participative où tous les acteurs sont considérés comme expert et leur participation est basée sur leurs connaissances propres plutôt que sur les rôles et intérêts qu’ils représentent » [Caelen, 2004 : 5].
Ici, la conception participative apparaît comme un moyen d’obtenir une meilleure expression des besoins dès l’amont du processus de conception, en affirmant les analyses fonctionnelles et en précisant le cahier des charges du point de vue de l’usage qui sera fait du futur dispositif [Darses, 2004]. Il s’agit, en d’autres termes, que l’utilisateur devienne véritablement le centre de la conception, « non plus concevoir pour l’utilisateur mais concevoir avec lui » [Caelen et Jambon, 2004 : 2].
Attention toutefois à ne pas associer ces démarches de conception participative à celles, relativement proches, dites de conception centrées utilisateurs comme la méthode des scénarios d’usage par exemple. En effet, comme le souligne Darses, même si ces démarches revendiquent une prise en compte des usagers dès la phase de conception, elles ne font pas pour autant systématiquement intervenir l’utilisateur comme un acteur à part entière du cycle de conception : « nombre de ces démarches s’appuient sur des représentations de l’utilisateur établies sur la base de modèles de l’activité, élaborés grâce à des questionnaires, des tests, des expérimentations ou des observations in situ. L’utilisateur est généralement confiné aux phases d’évaluation du système et n’est pas associé à la rédaction des spécifications … il n’a pas le pouvoir d’infléchir explicitement le cours [de la conception] » [ibid. : 27].
Darses met ainsi en évidence la spécificité des méthodes de conception participative : « nous voulons insister sur le fait que la participation des utilisateurs finaux au processus de conception ne peut être réduite à une technique de conduite de projet, si sophistiquée soit-elle. Promouvoir la conception participative, c’est conduire à un affaiblissement des modèles classiques de la conception et à un accroissement des composantes sociales des modèles » [ibid. : 30]. Elle préconise de fait de modifier les modèles de conception classiques : « sans négliger la décomposition des buts et la gestion de la complexité, cette théorie donnera plus d’importance aux conditions d’établissement d’une mutuelle intelligibilité des représentations et au partage de décision » [ibid. : 30].
Dès lors, les travaux sur la conception participative se fixent deux objectifs. Le premier consiste à intégrer dans les processus de conception en entreprise, déjà complexes et faisant intervenir de multiples acteurs, une dimension ‘socio-économique de l’usage’ c’est-à-dire des sociologues, anthropologues et économistes dans le processus. Le second consiste à instrumenter davantage le processus de conception afin de donner à chacun des acteurs des outils qui lui permettent d’observer et de guider son activité pendant le processus. Une formalisation des activités de conception participative est alors proposée. Elle s’articule autour de trois concepts [Caelen et Jambon, 2004] :
Les primitives : ce sont des tâches élémentaires qui ne peuvent avoir de sens par rapport au travail proprement dit de conception. Il s’agit par exemple d’informer les participants, les consulter pour déterminer les fonctions autour desquelles la discussion aura lieu.
Les moments : ce sont des ensembles de tâches de conception ayant une cohérence causale et dont l’exécution conduit à un résultat tangible dans la tâche de conception.
Les phases : elles sont marquées par un point de passage de la conception ou un instant particulier situé dans le temps. Les phases sont donc constituées d’un ensemble de moments du processus de conception.
Ce formalisme permet alors aux auteurs de proposer un modèle général et intégratif permettant d’inclure les préoccupations des sociologues, ergonomes et/ou économistes dans le cycle de conception. Il s’agit en quelques sortes d’une formalisation d’un processus en définissant les acteurs y prenant part, les entrées, les étapes et sorties. Il leur permet également d’instrumenter les séances de travail collaboratives en améliorant les échanges entre les acteurs et en leur fournissant un cadre de travail dépendant des moments de la conception, des mécanismes de régulation comme la prise de tour de parole par exemple, une base d’expériences antérieures d’utilisation des moments de la conception, un support d’échange de connaissances structurées, et enfin, un cadre matériel de communication et de travail.

Au final, cette étude des démarches de co-conception suggère notamment de prendre en compte l’importance relative de la dimension multi-acteurs des processus de conception. Elle met en évidence la complexité inhérente à ces processus et la réelle nécessité de gérer voire d’instrumentaliser ces démarches. En outre, elle prône, notamment dans le cas de la conception participative, l’intégration des usagers dès la conception. Pour autant, même si ces éléments permettent une première caractérisation des processus de conception, l’accent mis sur les usagers n’est pas réellement présent dans ces différents travaux qui s’attachent plus à l’intégration d’acteurs spécialisés dans le domaine des usages qu’à celle des usagers.
Dans cette perspective, la théorie de la traduction nous semble être un point de passage fécond pour définir une démarche de co-conception orientée usage. Elle permet en effet une véritable prise en compte des usagers dans le processus de conception en prônant une adoption-adaptation nécessaire à la réussite de l’innovation,
3.1.2. La co-conception : apports de la théorie de la traduction
Dans la section 1.1.3., nous nous sommes attachés à définir l’innovation telle qu’entendue par les auteurs du CSI. Dans ce modèle, nous avons montré que l’innovation s’appréhende comme un processus en boucles itératives qui fait intervenir, à côté des entreprises, une multitude d’acteurs tels les usagers, consommateurs, laboratoires de recherche … Dès lors, la perspective définie par le CSI nous semble essentielle pour proposer une démarche de co-conception orientée usage, notamment parce qu’elle permet une prise en compte d’une pluralité d’acteurs hétérogènes et qu’elle propose d’intégrer l’étude des processus de conception dans une analyse plus générale du réseau de collaboration qui se noue autour de celui-ci. Dans cette perspective, nous nous intéresserons également aux auteurs qui, dans le prolongement de ces travaux, ont mis en évidence l’importance des supports à la médiation dans la construction des innovations.
3.1.2.1. Le modèle tourbillonnaire : entre art de l’intéressement et choix des bons porte-paroles
Les apports de la théorie de la traduction à la définition d’une démarche de co-conception orientée usage s’articulent autour de deux concepts clés, fortement complémentaires : l’art de l’intéressement et le choix des bons porte-paroles.
En effet, les auteurs du CSI s’attachent à montrer que le succès des innovations dépend en amont de l’art d’intéresser au cours du processus d’innovation un nombre croissant d’alliés qui renforcent le pouvoir de l’innovation. C’est ce qu’ils nomment de façon générique l’art de l’intéressement.
« Ou bien le projet demeure en l’état, personne ne s’en saisit et il reste dans les tiroirs ; ou bien il intéresse d’autres personnes, se déplace et se développe, mais alors il devient différent de ce qu’il était initialement. Ou bien on suppose des objets techniques achevés et complets qui n’ont plus qu’à se commercialiser, ou bien on suppose des objets composés au fur et à mesure par un compromis entre de très nombreux intérêts » [Callon et Latour, op. cit. : 16].
Le contexte socio-économique dans lequel le processus d’innovation se crée est donc central : le dispositif doit en effet parvenir à s’intégrer dans un réseau d’acteurs qui le reprennent, le soutiennent et le déplacent. Le travail de l’observateur consiste alors à mettre en exergue « l’existence de tout un faisceau de liens qui unissent l’objet à tous ceux qui le manipulent » [Akrich, Callon et Latour, op. cit. : 17]. Pour cela, ce dispositif doit combiner à la fois une analyse technologique (description de l’objet et de ses propriétés intrinsèques) et une analyse sociologique de l’objet (ici, les contextes particuliers de l’émergence de projets innovants entre recherche publique et recherche privée dans lesquels il se déplace et sur lesquels il produit des effets). Les auteurs du CSI prêtent ainsi une attention toute particulière « à l’entremêlement du social et de la technique dans les objets de la vie quotidienne et fixe pour tâche à la sociologie d’exposer les transformations successives que subit un énoncé ou un programme d’action initial débouchant sur l’objet final » [Chambat, op. cit. : 256].
Le modèle de l’intéressement permet alors de comprendre le succès d’une innovation dans sa dimension collective c’est-à-dire à travers le jeu des acteurs qui la façonnent, la déplacent et l’adoptent. L’analyse conjointe des mondes de la technique et du social (nommée analyse sociotechnique) souligne la nécessaire adaptation entre ces deux espaces : « adopter une innovation c’est l’adapter ; et cette élaboration résulte en général d’une élaboration collective, fruit d’un intéressement de plus en plus large » [Akrich, Callon et Latour, op. cit. : 15]. Dans cette perspective, « matières » sociale et technique sont donc malléables et l’art de l’innovation consiste à trouver un arrangement acceptable entre les acteurs humains et les entités non humaines. En d’autres termes, il s’agit de jouer en permanence sur les deux registres de la société et de la technique, de mener un véritable processus de négociation qui permettra, in fine, de créer un contexte favorable à la diffusion et à l’acceptation de l’innovation. Ceci passe ainsi par une traduction préalable des intérêts des individus, de leurs demandes, attentes et observations dans le dispositif sous la forme de choix techniques appropriés.
« Si l’innovation technique parvient à survivre dans l’environnement sociotechnique qui finit par être le sien, c’est parce que cet environnement est contenu dans sa texture, en quelque sorte inscrit en elle » [Callon, 1994 : 13].
Ainsi, le projet d’innovation n’est autre qu’une possibilité parmi d’autres et sera l’objet de controverses multiples car les différents acteurs concernés chercheront à le définir de manière à en tirer le maximum d’avantages respectifs pour chacun d’eux [Breton et Proulx, 2002].
Négociation et compromis sont donc inhérents au processus d’innovation. C’est pour cela qu’Akrich, Callon et Latour [op. cit.] proposent de substituer au modèle linéaire de l’innovation un modèle tourbillonnaire qui permet d’appréhender les multiples négociations et compromis sociotechniques qui donnent forment à l’innovation (c’est-à-dire les transformations sociotechniques). Dans ce modèle, l'innovation se transforme en permanence au gré des épreuves qu'on lui fait subir, c'est-à-dire des intéressements qu'on expérimente. Ainsi, « l'innovation est une interprétation provisoire de l'état de la nature, des possibilités techniques, des stratégies concurrentes du marché et des intérêts » [Callon et Latour, op. cit. : 17]. Chaque nouvel équilibre est matérialisé sous la forme d'un prototype qui teste concrètement la faisabilité du compromis imaginé. Le premier prototype étant rarement suffisamment convaincant, plusieurs passes sont généralement nécessaires [Akrich, Callon et Latour, op. cit.].
Ce modèle est représenté comme suit :

Figure 15 : Le modèle tourbillonnaire [Akrich, Callon et Latour, ibid.]
Dans ce modèle tourbillonnaire, Akrich, Callon et Latour [ibid.] mettent en évidence le rôle des porte-paroles dans la mise en forme du projet et la constitution d’un marché favorable à la diffusion et à l’acceptation de l’innovation. Ici, le choix des porte-paroles détermine le destin de l’innovation : « changez le recrutement, oubliez la bibliothèque, installez d’autres équipements, et c’est au mieux une autre innovation qui voit le jour, et au pire pas d’innovation du tout » [Akrich, Callon et Latour, ibid. : 24]. Là encore, l’incertitude est forte sur le choix des bons interlocuteurs. Cette étape constitue pour autant un moment crucial du processus dans la mesure où le sort de l’innovation dépendra de leurs négociations constantes, des épreuves qu’ils s’infligent les uns aux autres, des exigences contradictoires qu’ils s’imposent mutuellement. Comme le soulignent Akrich, Callon et Latour [ibid. : 25], il n’y a « pas d’innovation, pas d’invention qui ne se développe sans ce pari initial, sans cet acte de confiance élémentaire, qui définit notre relation à autrui, et qui conduit à tenir pour légitimes les porte-paroles avec qui vous vous apprêter à négocier votre projet d’innovation ». Opérer un choix parmi l’ensemble des interlocuteurs concernés c’est-à-dire sélectionner judicieusement quelques porte-paroles consiste alors à définir et mettre en œuvre des orientations stratégiques, délimiter les contours du projet et les problèmes à résoudre.

Dans cette perspective, les travaux du CSI contribuent directement à enrichir notre problématique de co-conception orientée usage et ce, pour trois raisons principales :
D’une part, l'innovation y est définie comme un processus en boucles, c'est-à-dire précisément comme le fruit du travail des acteurs sociaux mobilisés par la conception même de l'objet.
D’autre part, le courant de la traduction accorde un rôle particulier à la médiation entre les acteurs du réseau sociotechnique qui se crée autour de l'innovation. Celle-ci est centrale dans la mesure où elle met en évidence l'enchevêtrement de la technique et du social, notamment à travers les diverses représentations de l'usager inscrites dans le dispositif technique. Ainsi, ce ne sont plus les seules stratégies mises en place par les utilisateurs qui construisent le cours de l’innovation (modèle du déterminisme social), ni même les technologies qui s’imposent de fait aux utilisateurs (modèle du déterminisme technologique). Au contraire, concepteurs et utilisateurs participent tour à tour à la construction sociale de l’innovation, dans une sorte d’interaction permanente. Dans cette perspective, la construction de l'objet technique sera réalisée progressivement. En effet, les groupes d'usagers, munis de différents usages et dans différents contextes, appliqueront successivement des transformations à l'objet. Les utilisateurs interviennent ainsi dans la construction même de l'outil et modifient, via les concepteurs, le design et le contenu des objets et des interfaces. L'usage n'est donc pas postérieur à l'offre mais il s’appréhende et se construit dans l'offre. Pour chacune des passes successives de conception de l'innovation, la médiation entre les futurs usagers et les concepteurs modèlera l'outil dans un processus itératif de co-conception.
Enfin, ce modèle nous semble incontournable dès lors que l'on s'intéresse à la conception de solutions techniques puisqu'il permet de comprendre « comment l'innovation est adoptée, comment elle se déplace, comment elle se répand progressivement pour se transformer en succès » [Akrich, Callon et Latour, 1988 : 15]. En effet, selon ces auteurs, les chances de succès d’une innovation sont fonctions du nombre d’alliés mobilisés pour la défendre. Or, mobiliser des alliés, en d’autres termes accroître les probabilités d’appropriation, nécessite une adaptation de la solution, adaptation qui résulte en général d'une élaboration collective, traduisant un intéressement de plus en plus large. Ici, Akrich, Callon et Latour mettent en évidence le rôle des porte-paroles dans la mise en forme du projet et la constitution d’un marché favorable à la diffusion et à l’acceptation de l’innovation. Le choix des porte-paroles détermine ainsi le destin de l’innovation. Opérer un choix parmi l’ensemble des interlocuteurs concernés, c’est-à-dire sélectionner judicieusement quelques porte-paroles, consiste alors à définir et mettre en œuvre des orientations stratégiques, délimiter les contours du projet et les problèmes à résoudre.

En résumé, le modèle de la traduction nous enseigne que l'innovation est un processus fait de boucles itératives qui requiert de placer les usagers au cœur du travail de co-conception. Il démontre en outre que la clé de l'adoption d'une innovation demeure dans les mains des usagers et qu'il est de ce fait nécessaire d'adapter l'innovation à ces dernières et notamment par la mise en place de processus parallèles d'intéressement. Il nous enseigne enfin qu’une attention toute particulière doit être accordée au réseau sociotechnique dans lequel l’innovation, fruit d'une élaboration collective et d'un intéressement de plus en plus large, se construit.
Ces différents apports de la théorie de la traduction à la démarche de co-conception ont conduit certains auteurs à s’interroger plus spécifiquement sur la médiation entre les acteurs et les objets du réseau sociotechnique. Le rôle joué par les objets intermédiaires et les objets frontières dans les démarches de co-conception est particulièrement souligné dans ces approches.
3.1.2.2. Des supports à la médiation : rôle et nature des objets intermédiaires et des objets frontières
Les concepts d’objets intermédiaires et d’objets frontières s’inscrivent dans une tradition de recherche en sciences sociales qui, comme le souligne Vinck [2006], intègre la question de la matérialité dans le champ de leurs analyses, « non pas comme une chose en soi, exogène, mais comme opacité dans l’action qui ne se réduit complètement ni à la concrétisation, ni à la construction ou à l’inscription sociale » [ibid. : 12]. Dans la lignée de la théorie de la traduction, ces travaux s’intéressent plus spécifiquement à caractériser la présence et le rôle de ces objets dans le jeu des acteurs.
Les objets intermédiaires de conception (OIC)
Le concept d’OIC a été introduit par un groupe de chercheurs regroupant ingénieurs et sociologues qui se sont interrogés sur les problèmes nouveaux qu’engendre la mise en place, quasi-systématique, des méthodes d’ingénierie concourante comme principe de conception. Pour ces chercheurs, « cela ne va pas sans poser d’épineux problèmes d’organisation aux entreprises » [Jeantet et al., 1996] : celles-ci doivent en effet apprendre à (i) partager les tâches de conception avec de nombreux partenaires, (ii) les inscrire dans les dispositifs correspondants, (iii) convertir leurs structures en forme matricielle permettant de mettre l’accent sur les projets. Dès lors, sous le concept d’OIC, ces chercheurs se sont intéressés à tous les objets de la conception qui sont porteurs d’une représentation intermédiaire du produit conçu et plus spécifiquement au rôle de ces objets comme instrument de gestion des relations entre les membres d’une équipe de projet qui travaille dans un cadre d’ingénierie concourante.
Dans la perspective retenue par ces auteurs, les objets intermédiaires se définissent comme « des objets produits ou utilisés au cours de processus de conception, traces et supports de l’action de concevoir en relation avec outils, procédures et acteurs » [Jeantet, 1998 : 293]. Ces objets sont à la fois la réalisation et le support de leur travail. En ce sens, les objets intermédiaires sont hybrides : ils sont relatifs à la mise en forme de la nature en un produit nouveau et à l’organisation de la coordination entre ces concepteurs. Plus précisément, l’objet intermédiaire apparaît comme un instrument, un outil qui permet de stabiliser les représentations et les connaissances au cours du processus se faisant ainsi qu'un outil permettant aux individus de dialoguer entre eux autour de cet objet. L’objet intermédiaire est donc un support et un facilitateur de la coordination entre acteurs impliqués dans un processus complexe de conception. Il constitue une ponctuation dans le temps et dans l’espace social qui ‘fige’ momentanément l’état de la conception et les interactions entre les acteurs sur un objet matérialisé et, en même temps, pose les fondements des interactions qui vont suivre, devenant à la fois support des interactions et résultat de celles-ci. Ces objets ne sont pour autant ni déterminants de l’action, ni déterminés par les acteurs. Pour Vinck [1996], « ils interviennent aussi sur une gamme étendue dans le registre de l’action : faciliter, induire, rapprocher, empêcher, dissuader, rendre possible … » [ibid. : 14].
Plus spécifiquement, les OIC participent à trois processus à l’œuvre dans l’action [Vinck, ibid.] :
La représentation : les OIC représentent les acteurs qui les ont conçus. En effet, ils matérialisent des intentions ou des habitudes de travail ou de pensée ; ils sont les traces et les marques de certains auteurs ou encore la cristallisation de rapports sociaux. Ils représentant également un objet à venir dont ils véhiculent des fragments de connaissance.
La traduction : les OIC ne se réduisent pas à l’intention ou aux rapports sociaux qui président à leur production. Ils jouent un rôle significatif dans l’action en introduisant des déplacements et des transformations.
La médiation : les OIC participent à la construction de compromis et de savoirs partagés entre les acteurs. Ils peuvent produire des effets inattendus dans la dynamique interactionnelle en opérant sur le point de vue des acteurs. Ils sont également médiateurs dans la mesure où ils supportent la confrontation des points de vue en offrant par exemple des prises pour les acteurs en présence, en les aidant à faire apparaître de nouvelles connaissances, solutions et approches.
Dès lors, les OIC présentent quatre traits caractéristiques [Jeantet et al., 1996] :
Les OIC sont éphémères dans le sens où ils figent, de façon transitoire, une forme du produit conçu, qui va changer encore plusieurs fois jusqu’au produit final.
Ils sont virtuels car ils sont une représentation que se font les différents mondes de la conception du produit final. En ce sens, « ce sont des vecteurs de représentations, orientés par une intention ou un objectif issus d’un monde socio-technico-économique lié d’une façon ou d’une autre à celui de la réalisation de cet objectif » [ibid. : 92].
Ils répondent à deux types d’exigence : modéliser le produit et lier les acteurs et leurs mondes.
Enfin, ils sont à la fois subjectifs et objectifs car ils sont liés aux acteurs humains qui les créent et les manipulent selon leurs logiques particulières. Objectifs car ils permettent la création d’un référentiel commun. À ce propos, les auteurs effectuent un parallèle entre les OIC et les objets frontières de Star [1989] : « à la fois adaptables à différents points de vue et suffisamment robustes pour maintenir leur identité à travers eux, les objets constituent alors un référentiel commun aux interventions locales des acteurs, à leurs interprétations particulières et à leurs confrontations » [Jeantet, 1998 : 307].
Les OIC répondent ainsi à deux fonctions principales [Papadimitriou, 2004] :
Une fonction technique : ils permettent à l’équipe de conception de calculer, transcrire, intégrer, matérialiser ou encore évaluer la performance technique du produit conçu. En ce sens, les OIC sont intermédiaires entre les étapes successives du processus de conception.
Une fonction sociale : ils doivent assurer la communication et la coordination entre les mondes de la conception, en proposant à l’équipe de conception un objet autour duquel elle peut mettre en place un langage commun à tous les membres. En d’autres termes, l’OIC constitue une représentation partagée par les acteurs de la conception.
Il est par ailleurs possible d’effectuer une distinction entre les OIC en prenant appui sur deux axes de caractérisation de la finalité de ces objets dans l’action :
L’axe commissionnaire – médiateur distingue les objets selon leur intention : les objets qui transmettent une idée ou une intention de façon ‘transparente’ sont désignés comme commissionnaires, ceux qui modifient l’idée ou l’intention du concepteur, en d’autres termes qui traduisent les interactions des acteurs, sont dits médiateurs. Les premiers matérialisent donc exactement la représentation initiale du concepteur sans la modifier : leur utilité consiste essentiellement dans la communication d’une connaissance ou d’une prescription aux autres acteurs de la conception. Les seconds, en transformant l’intention originale du concepteur, ajoutent des connaissances nouvelles et influencent les interactions entre acteurs de la conception.
L’axe ouvert – fermé caractérise les objets selon leur pouvoir de prescription. Il permet de distinguer d’une part les objets ouverts, autorisant à l’utilisateur une grande marge de manœuvre via les possibilités d’interprétation, et d’autre part les objets fermés qui prescrivent une seule interprétation possible.
Les auteurs proposent un diagramme permettant de visualiser les différents points de vue sur les objets, c’est-à-dire les différentes postures théoriques possibles :

Figure 16 : Les différents types d’OIC [Jeantet et al., 1996]
À partir de ce travail sur les OIC et leur caractérisation, les chercheurs proposent de suivre les projets de conception et effectuent des parallèles entre évolution de ces objets et avancement de ces processus [Papadimitriou, op. cit.]. Ils suggèrent ainsi que nous pouvons nous attendre à rencontrer des OIC médiateurs et ouverts en début du processus de conception, quand les OIC sont utilisés pour l’exploration des différentes options et pour imaginer des solutions encore inconnues. Au contraire, en fin de conception, les OIC seraient plutôt commissionnaires (ouverts ou fermés) et forceraient les lectures des acteurs variés à être compatibles avec l’intention de la création de l’objet [Jeantet, op. cit.]. En outre, quand l’approche du processus de conception est linéaire et prescriptive, il serait plus probable de rencontrer des objets commissionnaires fermés, les interactions entre acteurs étant minimales et les alternatives explorées entre différents mondes de la conception étant limitées. Du point de vue de l’ingénierie concourante (et par la même de la conception participative), les OIC seraient plutôt médiateurs, permettant l’échange permanent entre plusieurs mondes de la conception simultanément, et l’évaluation du travail des uns par les autres à partir d’un référentiel commun [Mer et al., 1995]. Enfin, le même objet pourrait être ouvert ou fermé, commissionnaire ou médiateur selon le contexte et son utilisation. La typologie des OIC concerne donc, comme le souligne Papadimitriou [op. cit.], aussi bien les objets que les intentions de leur utilisation, ce qui indique que les OIC sont inséparables du processus de conception.
Les objets frontières
Le concept d’objet frontière est issu d’un travail de recherche de Star et Griesener [1989] qui tentaient d’expliquer comment un chercheur en biologie, J. Grinnell, avait réussi à faire en sorte que des acteurs hétérogènes acceptent de coopérer à la constitution d’un muséum zoologique dont l’existence même et le mode d’élaboration des collections de spécimens lui permirent de nourrir ses propres travaux théoriques concernant l’évolution des espèces. Pour ce faire, les auteurs s’appuient sur la notion de réseau et de traduction propres à la sociologie de l’innovation et montrent comment ce biologiste a réussi à ‘intéresser’ ces différents acteurs à ses travaux, ou, plus exactement, à les ‘enrôler’ pour qu’ils contribuent à sa recherche tout en servant leurs propres intérêts [Lauriol, Guérin et Hédia [2004]. Plus spécifiquement, ces auteurs ont montré comment ce biologiste « a su traduire les intérêts des autres pour qu’ils se transforment en alliés mobilisés autour d’un même objet scientifique –le muséum de zoologie des vertébrés- tout en continuant de servir leurs propres finalités » [ibid : 1787].
Le constat de départ qui anime les travaux de Star et Griesener [1989] est le suivant : le travail scientifique est a priori paradoxal dans la mesure où il y a peu de chances que les acteurs mobilisés soient animés des mêmes intentions. Pourtant, il nécessite de nombreuses interactions et une forte coopération entre eux. Pour Star et Griesener, le travail scientifique est donc l’objet « d’une tension dynamique entre des points de vue divergents et le besoin de découvertes généralisables » [ibid : 387]. L’hypothèse centrale retenue par ces auteurs, à l’instar de la sociologie des innovations, est que le consensus n’est pas nécessaire à la coopération ou à la conduite heureuse d’un travail (que ce soit dans le travail scientifique ou dans tout autre domaine) [Lauriol, Francis et Hédia, 2004]. En revanche, la coopération n’est possible que si un travail de ‘traduction’ des points de vue divergents permet un intéressement des différents acteurs. Ceci est particulièrement vrai dans le cadre de notre recherche où nous sommes en présence de deux communautés qui ont des cadres cognitifs très différents. C’est dans ce contexte que le concept d’objet frontière revêt toute sa pertinence. En effet, selon Vissac-Charles, « les objets frontières schématisent le travail d’articulation, de coordination de l’action et de simplification du monde. À travers eux, différents acteurs qui n’ont pas obligatoirement les mêmes buts arrivent à se coordonner tout en conservant leur autonomie. Le concept d’objets frontières permet de se débarrasser de l’idée que la coopération passe nécessairement par le consensus et permet ainsi d’expliquer comment on peut gérer à la fois la diversité et la coopération. Les objets frontières sont des connecteurs de réseaux » [1996 : 297 cité par Lauriol, Francis et Hédia].
En d’autres termes, les objets frontières jouent un rôle déterminant dans la constitution d’un réseau sociotechnique autour d’un projet (qu’il soit d’innovation ou non). Ils permettent à chaque acteur de ne pas nécessairement maîtriser tous les aspects ou compétences liées au projet. Mais, de ce point de vue, ces derniers peuvent s’en faire une représentation suffisamment simple et cohérente pour qu’ils puissent se concentrer dessus, se l’approprier, le rapporter à leurs propres finalités et in fine, décider de leur mobilisation dans le projet si celui-ci paraît pouvoir servir ou tout du moins respecter leurs préoccupations ou identité [Lauriol, Francis et Hédia, 2004]. En ce sens, « les objets frontières sont faiblement structurés dans l’usage commun et deviennent inversement fortement structurés dans l’usage individuel. Ils peuvent être concrets ou abstraits. Enfin, ils ont différentes significations dans différents mondes sociaux mais leur structure est suffisamment partagée entre plusieurs mondes pour les rendre reconnaissables comme moyen de traduction » [Star et Griesener, 1989 : 393].
Dès lors, les objets frontières deviennent des concepts clés pour développer et maintenir la cohérence à travers des mondes sociaux inter-croisés, en d’autres termes, pour connecter le réseau. Tout en réduisant l’univers des possibles et en permettant la construction d’un acteur-réseau autour d’un même projet, ils induisent des points de passage obligés [Lauriol, Francis et Hédia, 2004 ; Vissac-Charles, 1996].

Au terme de cette présentation des objets supports à la médiation, nous pouvons avancer l’idée selon laquelle la distinction entre objets intermédiaires et objets frontières est notamment perceptible sur le niveau d’analyse retenu : les OIC mettent davantage l’accent sur le cheminement progressif de la conception tandis que les objets frontières mettent davantage l’accent sur la capacité d’un objet à relier différents mondes et donc différentes communautés. Pour autant, nous les considérons, à l’instar de Grenier [2004], comme complémentaires et ayant un rôle déterminant à jouer dans les processus de co-conception orientés usage : ils permettent en effet que se mette en place une véritable coordination entre les co-concepteurs du projet d’innovation, et donc, entre les nombreuses communautés participant à ce processus.
3.1.3. Pour une articulation des théories de la structuration et de la traduction
Nous proposons à présent d’enrichir la démarche de co-conception orientée usage définie à travers la théorie de la traduction grâce aux apports de la théorie de la structuration. Cette étape nous semble essentielle et ce, à deux niveaux :
l'approche structurationniste permet d'expliquer d’une part comment la variété des contextes sociaux combinée à l'introduction d'une nouvelle technologie peut mener à des usages différenciés ;
d’autre part, elle montre que le design et les usages sont construits socialement et ne peuvent être déconnectés des structures sociales dans lesquels ils se développent. Ici, l’approche structurationniste apporte une grille d’analyse appropriée pour étudier le contexte pertinent d’usage.
3.1.3.1. Les apports de la théorie de la structuration à la démarche de co-conception
La perspective structurationniste de la technologie [Orlikowski, 2000 ; Poole et DeSanctis, 1994], en référence aux apports de Giddens [1984], se donne pour objectif initial d’appréhender les influences mutuelles entre les technologies et les organisations dans lesquelles elles s’implantent. Ces travaux proposent une conception particulière de la technologie et au-delà de l’usage à proprement parler développée dans la section 1.3.3. La technologie n’est pas ici neutre, elle est un construit social qui résulte de l’action humaine et des propriétés structurelles du système organisationnel. Elle est créée et modifiée par l’action humaine qu’elle influence à son tour dans un processus d’interaction continu.
Les travaux structurationnistes en référence au système d’information ont connu trois grandes vagues de développement (cf. § 1.3.3.) : une première a été initiée par les travaux fondateurs de Barley [1986] qui peuvent être qualifiés, comme nous l’avions souligné, de « déterministes doux » ; une seconde à partir des travaux d’Orlikowski [1992] et de ceux Poole et DeSanctis [1994] qui prend appui sur une définition commune de la technologie comme un objet social, résultat d’interactions humaines ; enfin, il est possible de parler d’une troisième vague avec les écrits récents d’Orlikowski [2000] (qui se veulent plus en conformité avec l’approche initiale de Giddens). Ces travaux nous semblent particulièrement prégnants dans la mesure où ils sont en adéquation avec une démarche de conception et plus simplement d’implémentation.
Récemment, Orlikowski [2000] propose en effet de faire évoluer son modèle en adoptant une vision beaucoup plus orientée pratique des interactions technologies-individus. Pour ce faire, elle opère une distinction entre ce qui fonde les deux aspects de la technologie :
La technologie comme un artefact technologique, c’est-à-dire un ensemble de modules intégrés de logiciels et de matériel qui comporte des caractéristiques prédéfinies. Ce premier aspect, celui de l’artefact, correspond alors à l’ensemble des propriétés matérielles et symboliques incorporées par les designers pendant la phase de développement de la solution. Ces propriétés sont largement déterminées par ce que Poole et DeSanctis [1994] nomment l’esprit de la technologie qui fait référence à l’intention générale, c’est-à-dire aux buts et valeurs qui supportent la technologie.
La technologie comme technologie-en-pratique qui correspond quant à elle aux propriétés structurelles énactées de façon routinière dans l’usage de la technologie par les usagers, c’est-à-dire quand les individus utilisent une machine spécifique ou encore un appareil électrique. Ces propriétés se définissent comme l’ensemble des règles et ressources que les usagers mobilisent dans leurs pratiques quand ils s’engagent récursivement avec une technologie.
Définir la technologie comme l’articulation de deux niveaux, un artefact technologique et une technologie-en-pratique, implique les conséquences suivantes :
Tandis qu’une technologie peut être définie comme une combinaison de composants matériels inscrits par les développeurs qui ont anticipé une certaine vision du monde (esprit de la technologie), ce n’est que quand cette technologie est utilisée dans les pratiques sociales récurrentes qu’elle structure les actions humaines. En d’autres termes, seule la technologie-en-pratique influence l’action humaine, et non l’artefact technologique en tant que tel, malgré les propriétés technologiques qu’il incorpore.
Quand les usagers utilisent une technologie, ils choisissent de fait comment ils vont interagir avec cette technologie c’est-à-dire qu’ils peuvent, de façon délibérée ou non, choisir d’utiliser la technologie d’une manière non anticipée par ses designers. Ainsi, même si la technologie comprend un certain nombre de propriétés technologiques inscrites par les designers et les développeurs, ces propriétés ne prédéterminent pas l’usage qui en sera fait.
Ce n'est pas parce que les designers intègrent des propriétés technologiques dans une technologie ou qu'ils fixent une activité particulière à une technologie que les usagers utiliseront cette technologie dans cette perspective. L'usage de la technologie ne constitue donc pas un choix parmi un lot fermé de possibilités prédéterminées mais un processus situé et récursif de constitution qui peut ignorer des usages conventionnels voire en inventer de nouveaux.
L’usage est fortement influencé par la compréhension que les usagers ont des propriétés et des fonctionnalités de la technologie, ces dernières étant elles-mêmes fortement influencées par les images, descriptions, rhétoriques, idéologies présentées par les vendeurs, journalistes, consultants, managers…
La technologie-en-pratique, telle que définie par Orlikowski, est alors comprise comme une sorte de structure qui, régulièrement énactée dans les interactions, reconstitue les règles et les ressources qui structurent l’action sociale. Le modèle d’Orlikowski peut être représenté de la façon suivante :

Figure 17 : L'énaction de la « technology-in-practice » [Orlikowski, 2000 : 410]
Dans ce modèle dit renouvelé, lorsque les individus utilisent une technologie, ils s’inspirent de plusieurs éléments :
des propriétés de la technologie, c’est-à-dire les propriétés de ses constituants matériels, celles inscrites par les designers mais aussi celles ajoutées par les usagers lors d’interactions précédentes ;
de leurs compétences, connaissances, suppositions et attentes vis-à-vis de la technologie et de son usage, eux-mêmes influencés par l’entraînement, la communication et les expériences passées des individus ;
de leurs connaissances et expériences des contextes institutionnels dans lesquels ils vivent et travaillent, des conventions sociales et culturelles associées à de tels contextes.
En d’autres termes, lorsque les individus interagissent avec les technologies, ils énactent simultanément la technologie-en-pratique et d’autres structures, comme par exemple une culture de coopération dans une groupe de travail, une autorité hiérarchique dans une organisation bureaucratique …

Les apports de la théorie de la structuration à une démarche de co-conception sont prégnants : Orlikowski [2000] met en évidence la séparation entre le monde des concepteurs qui, lorsqu’ils développent la technologie, énactent un structurel et le retranscrivent sous forme de propriétés technologiques et celui des usagers qui, quand ils s’engagent récursivement avec elle, énactent une technologie-en-pratique qui peut largement différer des intentions des développeurs. De ce fait, Orlikowski préfère parler d’énaction de la technologie plutôt que d’appropriation et ce car les structures, au sens de règles et de ressources « inscrites » dans la technologie, sont virtuelles et n’émergent que dans l’usage récurrent que les usagers en font.
S’intéresser aux processus de conception en retenant une perspective structurationniste de la technologie revient alors à distinguer d’une part, dès la phase de conception, le monde des concepteurs et le monde des usagers, et d’autre part à s’interroger sur les interactions qu’ils entretiennent. Cette approche suggère ainsi que le projet d’innovation apparaît comme le résultat d’un ensemble d’interactions nouées entre ces deux mondes. Au-delà, elle prône la mise en situation réelle des outils informatiques, seule à même d’offrir un cadre pertinent pour l’énaction par les usagers de la technologie-en-pratique mais aussi des autres structurels enchâssés. En effet, la participation de quelques usagers pilotes au processus de conception ne permet pas de prendre en compte les formes d’énaction qui émergeront dans des pratiques contextualisées. Il est donc nécessaire dès le début de la phase de conception de mettre le prototype à la disposition d’usagers en contexte réel.
3.1.3.2. Le monde des usagers : trajectoire des activités signifiantes
La démarche de co-conception orientée usage que nous proposons apparaît comme une première voie de solution pour faciliter la création de connaissances par les partenariats entre recherche publique et recherche privée. Pour autant, il nous semble que la coopération effective entre quelques usagers et les concepteurs n'est pas seul gage de réussite. En effet, la participation de quelques usagers pilotes à l'innovation ne permet pas à elle seule une représentativité de l'ensemble des acteurs qui interagiront avec la solution future. Or, comme le soulignent les théories de la structuration et de la traduction, le monde des concepteurs et celui des usagers diffèrent. Au-delà de la co-conception, il est donc primordial de s'intéresser aux trajectoires d'usage, facteur déterminant de l'appropriation par les usagers futurs de la solution.
Ici, il s’agit alors de porter une attention toute particulière aux trajectoires d’usage des utilisateurs c’est-à-dire aux trajectoires des activités signifiantes [Boullier, 2004]. Cette proposition trouve une origine et induit des conséquences différentes selon les deux écoles :
Pour la théorie de la structuration, le fait que les usagers peuvent utiliser la technologie dans des voies non anticipées par les designers montre à l’évidence qu’acquérir et mettre en place des technologies appropriées ne suffit pas à garantir une quelconque utilisation. Par conséquent, les trajectoires d’appropriation peuvent différer de celles imaginées par les concepteurs. En effet, dans leur interaction récurrente avec la technologie, les usagers énactent plusieurs types de structures émergentes, la technologie en pratique mais aussi d’autres structures enchâssées qui influencent l’usage réel de la technologie (c’est-à-dire la technologie d’usage).
Par voie de conséquence, la participation de quelques usagers pilotes au processus de co-conception ne permet pas de prendre en compte les formes d’énaction qui émergeront dans des pratiques contextualisées. En effet, l’ensemble des structures sociales qui reflètent les interactions entre acteurs ne peut être perçu par la seule analyse de quelques usagers pilotes. Comme le soulignent Taylor et al., « il est difficile de voir comment un élément clé de la théorie de Giddens – l’institutionnalisation de la structure permettant de transcender les limites de temps et d’espace - pourrait être capturé dans ce qui n’est, après tout, que de brèves séquences d’interactions de groupes » [2001 : 160]. Dans la lignée de la théorie de la structuration, nous soutenons alors qu’il est nécessaire, dès le début de la phase de co-conception, de mettre le prototype à la disposition d’usagers en contexte réel. En effet, seule une expérimentation réelle du prototype dans les pratiques de travail des individus sera à même de mettre en évidence de véritables phénomènes structurationnistes.
Pour l’école de la traduction, la divergence entre le monde des concepteurs et celui des usagers impose, dès les prémices du travail de co-conception, de mobiliser un grand nombre d’alliés pour accroître les chances de réussite d’une innovation. Il s’agit alors de construire un environnement, un réseau sociotechnique, apte à recevoir l’innovation. La mobilisation d’alliés passe dès lors par la concrétisation des quatre étapes de la traduction définies dans la section 1.3.2.2. c’est-à-dire :
la problématisation. Elle consiste à définir de façon hypothétique l’identité d’acteurs et ce qui les lie, et à proposer un réseau d’alliances ou de problèmes reliés par des points de passages obligés.
les dispositifs d’intéressement. Il s’agit ici de stabiliser l’identité des acteurs définis pendant l’étape de la problématisation et d’initier un lien social entre ces acteurs.
l’enrôlement. Une fois définis les acteurs et initié un lien social, il est nécessaire de construire un argumentaire le plus convaincant possible afin d’assurer la réussite de l’intéressement.
la mobilisation des alliés ou représentativité des porte-paroles. La dernière étape consiste enfin en la définition de porte-paroles, acteurs susceptibles de « vendre » le projet à diverses entités.
Ici, assurer le succès de l’innovation implique alors de créer un réseau d’acteurs qui la reprenne, la soutienne et la déplace et donc d’assurer des boucles multiples d’intéressement de plus en plus larges. Notons ici que la première étape, celle de la problématisation, coïncide avec celle du processus de co-conception. Dans la perspective du CSI, les porte-paroles ont un rôle déterminant dans la réussite de l’intéressement : ils assurent la mobilisation progressive des acteurs qui s’allient et font masse pour rendre crédibles et indiscutables les propositions qui fondent le projet commun. Le succès de l’innovation s’explique alors à la fois par la consolidation du lien social qui lie les différentes parties prenantes et par l’établissement de compromis sociotechniques de plus en plus convaincants.
Dès lors, en prenant appui sur les apports de la traduction, nous soutenons la nécessité de définir, dès les prémices du projet de co-conception, des acteurs, les porte-paroles, interfaces entre le monde des concepteurs et celui des usagers qui assurent la convergence entre ces deux mondes, et d’accorder un rôle central aux trajectoires d’usage à travers la construction / stabilisation du réseau sociotechnique qui doit être créé autour de l’innovation. Bien entendu, ces acteurs peuvent différer au cours du processus de conception et selon les boucles d’intéressement ce qui nous conduit naturellement à nous poser la question du choix des porte-paroles.
Qu’est-ce qui peut aider l’équipe de conception dans son choix des alliés, et plus spécifiquement, dans le choix de porte-paroles aptes à porter le projet d’innovation ? Il semble ici que la notion de position sociale de Giddens [1987] apporte un éclairage intéressant. Selon Giddens, les systèmes sociaux sont organisés en tant que pratiques sociales régularisées qui se maintiennent via des rencontres dispersées à travers l’espace-temps. Cependant, les acteurs, dont les conduites constituent de telles pratiques, se positionnent. Ils se positionnent ou se situent dans l’espace-temps mais aussi dans un système de relations, comme le suggère l’expression «position sociale». Ainsi, « les positions sociales se constituent en tant qu’interactions particulières de signification, de domination et de légitimité » [Giddens, 1987 : 133-134]. Une position sociale se définit donc comme une identité précise dans un réseau de relations sociales. Elle se définit par rapport à un espace temps ce qui nous invite, dans le choix des porte-paroles, à prendre en compte la trajectoire individuelle des acteurs.

L’objectif de cette section était précisément de proposer une démarche de co-conception orientée usage. Celle-ci a l’originalité de coupler des courants qui partagent une même vision de la technologie et des interactions technologies-usagers, à savoir les courants de la traduction, de la cognition distribuée et de la structuration. Le choix de ces courants est d’autant plus fondamental que nous nous intéressons spécifiquement dans cette recherche à la conception d’artefacts cognitifs interactifs.
Dans cette perspective, la démarche que nous proposons place les usagers au cœur du processus de conception. Ceux-ci sont présents à deux niveaux complémentaires : directement dans l’équipe projet, ils participent à la construction en boucles itératives de l’innovation ; indirectement, via les scénarios d’usage, qui permettent grâce aux variables de la structuration et de la cognition distribuée, une description non exhaustive mais finalisée et orientée du contexte d’implantation de la solution et des pratiques qui s’y déroulent.
La prise en compte des usagers dans le processus d’innovation est également présente à un autre niveau largement complémentaire : celui des trajectoires des activités signifiantes des usagers. Cet intérêt pour ce niveau d’analyse se justifie doublement. Il montre tout d’abord la nécessité d’enrôler, au cours du processus d’innovation, une part croissante d’alliés qui soutiennent l’innovation et construisent un réseau sociotechnique apte à la recevoir. Il souligne ensuite le besoin d’une mise en situation réelle des solutions informatiques, seule à même d’offrir un cadre pertinent pour l’énaction par les usagers de la technologie-en-pratique et qui ne peut se faire indépendamment des autres structurels dans lesquels les pratiques sont enchâssées.
Au final, la démarche de co-conception que nous proposons offre d’analyser l’innovation technologique comme le résultat provisoire et évolutif de l’interaction entre les boucles de conception et celles des usages. Plus encore, elle défend l’idée selon laquelle la réussite des innovations passe par la convergence de ces boucles. Dès lors, tout l'enjeu de cette démarche réside dans la recherche de « médiateurs » permettant des points de rencontre entre les trajectoires d'usage et les trajectoires du projet de conception.
Cette démarche peut être schématisée de la façon suivante :

 EMBED Diapositive Microsoft PowerPoint 
Figure 18 : Co-évolution de la conception et des usages

Au terme de cette analyse, nous souhaitons de nouveau souligner que les trois approches retenues pour définir notre démarche de co-conception orientée usage partagent une même vision des interactions outils-utilisateurs, vision qui ouvre la possibilité à des usages émergents en regard de contextes donnés.
Chacune de ces approches revendique pour autant un angle d’analyse différent :
(i) la cognition distribuée permet la prise en compte du monde des utilisateurs dans le monde de la conception et offre une première voie d’intégration des usagers dans le processus de conception, via les scénarios d’usage.
(ii) la structuration autorise quant à elle une analyse des trajectoires d’usage des utilisateurs. Elle met ainsi en évidence l’importance des structurels énactés par ces acteurs quand ils interagissent avec la solution et la nécessité de la mise en situation réelle des solutions TIC.
(iii) le CSI accroît l’intervention des usagers qui deviennent de véritables co-concepteurs de la solution. Il offre en outre l’opportunité, pendant le processus de co-conception, de porter un regard approfondi sur la construction d’un réseau sociotechnique apte à recevoir l’innovation. Ici, la mise en place de processus d’intéressement et le choix des bons porte-paroles deviennent déterminants pour la réussite d’un projet de conception.
Cette démarche de co-conception a été mobilisée dans le cadre du projet KMP - Knowledge Management Platform - qui vise à concevoir une solution TIC innovante pour faciliter l’émergence de projets innovants par le biais de partenariats entre les firmes et entre les firmes et les organismes de recherche dans le domaine des télécommunications sur le site de Sophia Antipolis. Nous proposons à présent d’expliciter la méthodologie de recherche que nous avons retenue sur ce terrain.

3.2. Méthodologie de la recherche
Le principal reproche effectué aux sciences de gestion porte sur la légitimité d’une science qui s’interroge sur son statut épistémologique. Nombreux sont les chercheurs en économie, sociologie ou sciences cognitives qui remettent en cause les études portant sur les organisations et plus spécifiquement les sciences de gestion, accusant celles-ci de mobiliser leurs cadres théoriques sans aboutir à des résultats « scientifiques ». Face à de telles critiques, les chercheurs en gestion, le plus souvent dans leurs travaux de thèse, ont dû consacrer de l’énergie à justifier leurs choix paradigmatiques et à en décrire les implications méthodologiques. Nous pouvons alors nous interroger, et à juste titre, sur la légitimité de consacrer à l’heure actuelle un chapitre à des justifications désormais bien abouties en sciences de gestion. Cette digression nous semble pour autant nécessaire. En effet, une nouvelle voie de réflexion sur le statut épistémologique des sciences de gestion se dégage aujourd’hui, prenant appui sur une définition plus précise de ses objectifs et finalités. Dans cette voie, de nombreux auteurs soulignent et insistent sur une spécificité qui fonde les sciences de gestion à savoir sa visée pragmatique : « les sciences de gestion auraient donc vocation à analyser et concevoir les dispositifs de pilotage de l’action organisée » [David, 2000 a : 99]. Même si cette caractéristique n’est pas nouvelle, elle semble pour autant obtenir un écho plus important dans les travaux consacrés à l’épistémologie et à la méthodologie en sciences de gestion, relançant de la sorte des débats chers à notre discipline. Dans cette mouvance, des méthodologies encore fortement hasardeuses il y a quelques années émergent et se voient doter d’une légitimité accrue voire même d’un rôle de schéma conceptuel intégrant les différentes approches méthodologiques [David, 2000 a]. Nombreux sont ainsi les thèses et articles mobilisant aujourd’hui des recherches de type recherche action, ingénierique ou encore recherche intervention comme stratégie d’accès au terrain.
De ce fait, la première partie de cette section nous permettra d’expliciter ce choix et de définir de façon approfondie les méthodologies de recherche intervention. Nous effectuerons par la suite un détour par les travaux anglo-saxons sur le design organisationnel qui offrent des potentialités nouvelles pour renforcer le caractère scientifique des recherches intervention.
3.2.1. La recherche intervention comme architecture de recherche
L’objectif de cette recherche est de concevoir un outil TIC afin de faciliter les mécanismes de création de connaissances dans les partenariats entre recherche publique et recherche privée. Cette problématique nous incite d’emblée à choisir une méthodologie de recherche intervention, seule méthode dans laquelle « le chercheur devient « un ingénieur organisationnel » qui conçoit un outil, le met en place dans l’entreprise et l’évalue avec les utilisateurs » [Chanal, Lesca et Martinet, 1997 : 41].
Notre objectif consiste alors à expliquer dans un premier temps pourquoi notre choix s’est d’emblée porté sur les démarches de recherche intervention puis, dans un second temps, à définir explicitement ce type de démarche.
3.2.1.1. Le choix d’une recherche intervention
Parmi la pluralité des méthodes qui s’offrent aux chercheurs en sciences de gestion, celles de recherche action au sens large se différencient par la nature du rapport que le chercheur entretient avec son terrain. Ces perspectives revendiquent en effet un double objectif de « changement concret dans le système social et de production de connaissances sur celui-ci » [Allard-Poesi et Perret, 2003]. Elles posent pour principe la participation effective des acteurs du terrain pour générer des connaissances à un double niveau : pragmatique (pour l’action) et théorique. Malgré cette forte analogie, ces différentes méthodes de recherche action méritent d’être éclairées. En effet, elles diffèrent dans leurs conceptions de l’articulation changement-connaissance et sur la façon dont elles appréhendent l’objet et le dispositif de recherche.
Quatre courants principaux de recherche action émergent de la littérature [David, 2000 a, 2000 b ; Allard-Poesi et Perret, 2003]. Il s’agit de l’action research [Lewin, 1951], l’action science [Argyris et al., 1985], la science de l’aide à la décision [Roy, 1985, 1992] et enfin de la recherche ingénierique et de la recherche intervention [Chanal Lesca et Martinet, 1997, Claveau et Tannery, 2002 ; Hatchuel et Mollet, 1986, Hatchuel, 1994, David, 2000 b]. Notre objectif ici n’est pas d’effectuer une analyse approfondie de chacun de ces courants, mais de nous positionner parmi cet ensemble de méthodes qui confèrent au chercheur un rôle concret d’intervention sur son terrain.
Notre problématique de recherche s’articule autour de la coopération entre deux entités fortement distinctes, la recherche publique et la recherche privée et s’attache plus particulièrement à la question de la conception d’outil TIC pour faciliter les mécanismes de création de connaissances par le biais de partenariats. Il s’agit en effet de créer un outil qui répondent aux attentes des acteurs, désireux d’accroître les relations qui unissent chacune de ces communautés. Dans cette perspective, le but de notre recherche consiste donc à la création d’un outil d’aide à la création de connaissances par la mise en relation des communautés de la recherche publique et de la recherche privée. Elle implique nécessairement de choisir une méthodologie qui place la modélisation (sous toutes ses formes) au cœur de ses préoccupations. Parmi l’ensemble des méthodes de recherche action, seules les méthodologies de recherche ingénierique et de recherche intervention placent la création d’un modèle / outil au cœur de l’interaction. Ainsi, ces méthodes « s’apparentent par certains côtés à la recherche action par le fait que l’on s’intéresse principalement à des processus de changement organisationnel et que l’on implique les acteurs affectés par le changement dans la démarche de recherche. Elle s’en distingue cependant en imaginant un nouveau statut de « chercheur-ingénieur » qui conçoit l’outil support de sa recherche, le construit, et agit à la fois comme animateur et évaluateur de sa mise en œuvre dans les organisations, contribuant ce faisant à l’émergence de représentations et de connaissances scientifiques nouvelles » [Chanal, Lesca et Martinet, 1997 : 41].
Recherche intervention et recherche ingénierique apparaissent donc comme des méthodes incontournables dès lors que la finalité d’une recherche consiste en la modélisation c’est-à-dire en « la construction intentionnelle en vue d’une intervention » [Allard-Poesi et Perret, 2003 : 94]. Pour la recherche ingénierique plus spécifiquement, la mise en application de l’outil c’est-à-dire l’instrumentalisation du modèle est une étape essentielle puisqu’elle permet « d’effectuer un certain nombre de bouclages sur l’ensemble du processus de recherche. Ces bouclages constituent l’évaluation de la démarche et de la discussion de la contribution scientifique de la recherche » [Chanal, Lesca et Martinet, 1997 : 45]. Pour autant, il y a peu de distinction entre ces deux méthodes qui partagent une même volonté de conception, implémentation et évaluation de modèles et d’outils efficaces et qui sont souvent confondus dans la littérature.

Dès les prémices, nous avons placé les usages au cœur de notre problématique. Cette prise en compte des usages dans la conception de l’outil implique de concevoir l’innovation technologique comme un processus en boucles itératives. Il s’agit donc de penser, concevoir, implémenter la solution technologique, l’expérimenter et l’évaluer de façon à produire des connaissances nouvelles sur l’organisation et l’outil et d’induire des changements sur ces deux dimensions. Notre problématique est donc en phase avec le design des recherches interventions, méthodologie retenue pour conduire notre recherche. Notons ici que nous utilisons le terme de recherche intervention, plus générique, pour définir notre méthodologie même si, en instrumentant notre modèle, nous nous apparentons davantage à une démarche de recherche ingénierique.
Ce choix méthodologique se justifie également par la nature du problème analysé. En effet, selon Chanal, Lesca et Martinet [1997 : 41], les contextes et problématiques en gestion adaptés à une approche de ce type sont les suivantes :
L’étude de problèmes perçus par les acteurs du terrain mais non clairement exprimés. Comme nous le verrons ensuite, notre projet d’étude est issu des acteurs de Sophia Antipolis, qui, désireux d’accroître la visibilité de leur site, ont contacté des chercheurs en sciences de gestion de façon à les aider dans cette tâche. Il s’agissait alors d’un problème mal structuré nécessitant une co-construction avec les acteurs du terrain et d’un problème complexe faisant intervenir une multitude d’acteurs donc appelant plusieurs rationalités. Notons ici que dès les prémices du projet, plusieurs verrous ont été identifiés :
des verrous économiques : le problème de la motivation des membres à partager des connaissances avec d'autres membres du réseau, problème du « cavalier libre », problème de la maximisation du transfert de connaissances parmi un large groupe d'individus membres du réseau,
des verrous d’acceptabilité : acceptabilité des nouveaux modes de fonctionnement organisationnel fondés sur la coopération, acceptabilité de la solution technique, appropriation et intégration de la solution technique à des pratiques plus riches d'échange et de partage de connaissances,
des verrous techniques concernant l’évolution des ontologies, l’absence d’ontologies inter-entreprises, la gestion temporelle des ontologies.
Des connaissances théoriques peu adaptées pour répondre aux difficultés liées au pilotage des processus complexes dans les organisations. Comme nous l’avons vu dans une première partie, il est nécessaire dans cette recherche d’articuler des connaissances théoriques variées, jusqu’alors non directement « actionnables » par les entreprises. Ces connaissances portent principalement sur les coopérations entre la recherche publique et la recherche privée (majoritairement des travaux économiques) et sur la conception et le management des TIC (issus de réflexions en sociologie, gestion et informatique).

- La particularité des méthodes de recherche action consiste à définir le chercheur comme acteur de son terrain.
- Parmi la pluralité de ces approches, seules les recherches ingénierique et intervention place la conception d’un modèle ou d’un outil au cœur de leur analyse.
- Notre problématique, la conception orientée usage d’un outil d’aide à la création de connaissances dans les partenariats entre recherche publique et recherche privée, nous conduit d’emblée à nous positionner dans le champ de la recherche intervention.
3.2.1.2. Le déroulement d’une recherche intervention
Les définitions de la recherche intervention dans la littérature en sciences de gestion sont nombreuses. Elle se définit selon Plane [2000 : 23] comme « un processus d'interactions complexe et cognitif entre les acteurs d'une organisation et des intervenants-chercheurs en management, chargés de l'implantation, de l'acclimatation de méthodes et d'outils ainsi que de la stimulation de transformations durables sur le mode de management et de fonctionnement d'une organisation ». Selon David [2000 b : 210], « la recherche intervention consiste à aider, sur le terrain, à concevoir et à mettre en place des modèles, outils et procédures de gestion adéquats, à partir d’un projet de transformation plus ou moins complètement défini, avec comme objectif de produire à la fois des connaissances utiles pour l’action et des théories de différents niveaux de généralité en sciences de gestion ». Sans prétendre à l’exhaustivité, nous pouvons à partir de ces auteurs déduire les caractéristiques principales d’une recherche intervention [Chanal, Lesca et Martinet, 1997 ; David, 2000 a, 2000 b ; Allard-Poesi et Perret, 2003 ; Hatchuel, 1994 ; Hatchuel et Mollet, 1986 ; Moisdon, 1997] :
Il s’agit de recherches dans lesquelles il y a intervention directe du chercheur dans la construction concrète de la réalité. Le chercheur-intervenant et les acteurs avec lesquels il travaille forment ainsi un groupe d’acteurs engagés collectivement dans un processus d’apprentissage.
Ces recherches visent avant tout l’élaboration de connaissances scientifiques et plus particulièrement une connaissance sur la relative efficacité des modèles et outils de gestion.
Elles posent ainsi l’élaboration de connaissances actionnables au cœur de leurs principes, connaissances disposant d’une portée générale et pouvant être mobilisées par les acteurs en situation.
Dans ce type de recherche, le processus de construction vise à garantir que l’objet réponde à la fois aux problèmes pratiques des membres de l’organisation et aux préoccupations théoriques du chercheur.
La construction de l’objet constitue une première étape nécessaire au processus de recherche, ce qui la différencie des autres méthodes de recherche action.
Ainsi, ce type de recherche se caractérise par des allers-retours entre les expériences et représentations des acteurs et les connaissances théoriques du chercheur. Il se caractérise notamment par l’intervention directe du chercheur dans la construction concrète de la réalité, avec comme objectif sous-jacent la modification de cette réalité pour atteindre un but fixé a priori.
3.2.2. La question de la posture épistémologique
Nous nous posons ici la question du fondement épistémologique des méthodes de recherche intervention. Cette question nous amènera dans un premier temps à nous interroger sur la finalité des sciences de gestion en général et du positionnement des méthodes de recherche intervention par rapport à cette finalité. Puis, nous montrerons l’ancrage fort de ces méthodes dans les épistémologies dites constructivistes au sens de Le Moigne, et dans les épistémologies dites de design au sens de Romme notamment.
3.2.2.1. La conception comme finalité
Aujourd’hui encore, la légitimité des sciences de gestion est remise en cause. Quel chercheur en gestion peut affirmer n’avoir jamais fait l’objet de railleries émanant de chercheurs de sciences « de plein rang » quant à l’utilité d’une discipline qui ne fait que reprendre des concepts et théories développés par d’autres ou encore sur les débats épistémologiques internes que nous connaissons ? Il faut avouer que nombreux sont les travaux en sciences de gestion, et notre recherche n’en est pas exclue, qui utilisent des résultats issus de l’économie, de la sociologie … pour mener leur recherche. Peut-on pour autant remettre en question notre discipline ?
En nous appuyant essentiellement sur les travaux en épistémologie de Le Moigne [1995] ou sur l’ouvrage coordonné par Martinet [1990], nous souhaitons ici mettre en exergue ce qui fonde la spécificité de notre discipline : une science de la conception. Cette définition nous amènera alors à reconsidérer, dans la lignée des travaux de David, le rôle de la recherche intervention, entendue ici au sens large, comme « méthodologie générale en sciences de gestion » [2000 : 3].
Le travail de réhabilitation de la gestion et plus généralement des « sciences de l’ingénierie » est amorcé par Simon [1981]. Précurseur, Simon constate l’absence des sciences ingénieriques dans le modèle de Piaget [Le Moigne, 1995 : 129]. Effectuant une analyse plus approfondie des sciences de gestion, celui-ci cherche à appréhender l’originalité épistémologique de celles-ci. Il constate alors que la gestion peut se définir comme science de conception et non comme science d’analyse, une « science qui se définit par son projet de connaissance beaucoup mieux que par son objet de connaissance » [Le Moigne, 1995 : 130]. Ici, la finalité instrumentaliste de la science de gestion est largement mise en exergue. Il faut entendre « instrumentaliste » au sens de l’analyse et de la conception des dispositifs de pilotage de l’action organisée [David, 2000 b : 99]. Ainsi, la spécificité de la gestion par rapport aux sciences institutionnelles telles l’économie ou la sociologie tient à sa dimension ingénierique : la science de gestion peut, en effet, se définir au sens large comme l’ingénierie de l’organisation sociale ou de façon spécifique comme la coordination du pilotage finalisé de quelques fonctions pré-identifiées [Le Moigne, 1995].
C’est ainsi que Martinet s’inquiétant du « curieux retournement de l’histoire » selon lequel le management stratégique semble peiner à retrouver la voie de la conception, rappelle le rôle du chercheur en gestion : « le chercheur doit connaître et intégrer les résultats disciplinaires, mais les dépasser en créant des cadres conceptuels à même de guider les processus cognitifs et organisationnels dans lesquels viendront, en pratique, s’insérer des données nécessairement situationnelles et contingentes. Il lui faut accepter de contribuer scientifiquement à une pensée stratégique qui ne peut se réduire à la seule juxtaposition de résultats analytiques partiels, mais doit rechercher les articulations créatives, les combinaisons et les intégrations novatrices » [2000 : 122-123]. En d’autres termes, les concepts utilisés en théorie des organisations, en économie industrielle ou institutionnelle sont utiles mais insuffisants. « Il faut une problématique réellement gestionnaire, qui suppose que l’on travaille à des niveaux théoriques intermédiaires, plus contextuelles » [David, 2000 b : 210].
Cette définition du rôle du chercheur en sciences de gestion nous pousse à repenser la place de la recherche intervention telle que définie précédemment dans l’ensemble des méthodes propres à cette discipline. Il convient en effet de se poser la question de la justification des craintes suscitées à l’égard d’une méthodologie qui accorde une place centrale aux activités de conception dans une discipline qui se définit par essence comme une science de conception. David [2000 b] pousse ce raisonnement jusqu’à démontrer que la recherche intervention, entendue au sens large, pourrait constituer une généralisation d’un certain nombre de démarches de recherche en sciences de gestion. Il s’appuie pour cela sur quatre méthodes de recherche (l’observation, la recherche action, la conception en « chambre » de modèles de gestion, la recherche intervention) qu’il qualifie selon leur capacité à produire effectivement des changements. Chacune de ces démarches est ainsi modélisée par un schéma à deux dimensions complémentaires :
Le degré de formalisation, qui indique le degré de définition formelle des changements produits ou à produire par la recherche,
Le degré de contextualisation qui indique le degré d’intégration au contexte des changements produits par la recherche.
Ce schéma est le suivant :

Objectif
Construction mentale de la réalitéObjectif
Construction concrète de la réalitéDémarche
Partir de l’existant (observation des faits ou travail du groupe sur son propre comportement)-1- Observation
Contextualisation du changement
 SHAPE 
Formalisation du changement-3- Recherche-action
Contextualisation du changement
 SHAPE 
Formalisation du changementDémarche
Partir d’une situation idéalisée ou d’un projet concret de transformation-2- Conception en chambre de modèles de gestion
Contextualisation du changement
 SHAPE 
Formalisation du changement-4- Recherche-intervention

Contextualisation du changement
 SHAPE 
Formalisation du changementFigure 19 : Formalisation et contextualisation du changement dans les quatre démarches de recherche [David, 2000 b : 205]
David [2000 b] s’appuie sur trois raisonnements pour justifier que la recherche intervention peut être considérée comme une démarche générale en sciences de gestion :
Graphiquement, tout d’abord, il montre que chacun des schémas 1, 2 et 3 constitue un cas particulier du schéma 4, celui de la recherche intervention.
Sur le plan pratique ensuite, il montre que la recherche intervention est une démarche plus générale pour trois raisons principales : (i) elle n’a pas les limites de la simple observation, (ii) elle ne souffre pas de l’absence de vision organisationnelle de la conception en « chambre » de modèles et d’outils, (iii) elle ne limite pas ses outils d’intervention au travail sur les relations collectives, et autorise une intervention sur les objectifs pratiques de l’organisation.
Sur le plan des principes sous-jacents enfin, David note que c’est en recherche intervention que ces principes sont exprimés au niveau de généralité le plus élevé : ces principes ont déjà été énoncés précédemment ; il s’agit des principes de rationalité accrue, d’inachèvement, d’isonomie, de scientificité ou encore des deux niveaux d’interaction.
Face à de tels arguments, il nous semble primordial aujourd’hui de reconsidérer la place de la recherche intervention. Celle-ci ne doit plus faire l’objet de craintes mais bien au contraire être admise comme une démarche de recherche fondée, en totale concordance avec les objectifs de recherche en sciences de gestion. Elle est, selon David [2000 b], la position potentiellement la plus favorable à la production de connaissances théoriques fondées en sciences de gestion.
3.2.2.2. Le design research comme posture épistémologique
Appréhender les sciences de gestion comme sciences de conception s’intègre pleinement dans l’optique constructiviste qui prône la représentation intelligible des interventions des acteurs au sein des organisations d’une part et l’invention des possibles d’autre part. Elle conforte également la position et les principes constructivistes par le fait que « le chercheur en sciences de gestion va contribuer, directement (intervention directe dans la construction de la réalité) ou indirectement (conception de représentations), à la construction de la réalité au sens où cette réalité gestionnaire n’est précisément pas « naturelle » mais composée d’artefacts » [David, 2000 a : 100].
Ainsi, selon Le Moigne, c’est dans la définition même des sciences de gestion que ce trouve le principe de renoncement au positivisme : « peut-on sérieusement tenir pour une discipline positive une science qui se définit par un objet chimérique, la gestion, qui n’a aucune réalité tangible, qui ne présente guère de régularités stables ; un objet dont la description se modifie au fur et à mesure que l’observateur le décrit ; un objet qu’il n’est guère possible d’analyser sans le transformer et qui s’avère en même temps passible de plusieurs découpes concurrentes s’excluant mutuellement ; un objet qui ne se prête guère à une manière uniforme de raisonnement, en particulier lorsqu’on souhaite le traiter par logique disjonctive ; un objet que l’on s’efforce certes de tenir pour passible du principe de moindre action, en cherchant et en trouvant diverses dispositions d’optimisation, mais qui semble sans cesse insatisfait des optima qu’ainsi on lui propose, parce qu’ils ignorent divers critères auxquelles il se considère comme soumis, ou parce que la durée des calculs de chaque optimum est incompatible avec les échéances des actions qu’il doit produire » [ibid. : 108-109]. L’apport de Le Moigne, face à ce diagnostic « de non-positivité épistémologique » [ibid.. : 110], consiste alors à redéfinir le statut des sciences de gestion en les intégrant dans le modèle constructiviste du système cyclique des sciences défini par Piaget [1968].
Le Moigne [1990] effectue ainsi une distinction entre l’univers câblé qui caractérise les épistémologies positivistes au sens large et l’univers construit pour les épistémologies constructivistes, elles aussi entendues au sens large. Selon cet auteur, ces deux paradigmes ont marqué l’évolution des recherches en sciences de gestion et les principes qui différencient ces deux écoles de pensée peuvent être résumés comme suit (repris par David [2000 a]) :

Épistémologie positivisteÉpistémologie constructivistePrincipe ontologique : peut être considéré comme vraie toute proposition qui décrit effectivement la réalité. Le but de la science est de découvrir cette réalité. Ceci est applicable à tous les sujets sur lesquels l’esprit humain peut s’exercer.Principe de représentabilité de l’expérience du réel : la connaissance est la recherche de la manière de penser et de se comporter qui conviennent. Nos expériences du réel sont communicables (modélisables) et la vérité procède de cette adéquation des modèles de notre expérience du monde à cette expérience.Principe de l’univers câblé : il existe des lois de la nature, le réel est déterminé. Le but de la science est de découvrir la vérité derrière ce qui est observé. La description exhaustive est possible, par décomposition en autant de sous-parties que nécessaire. Les chaînes de causalité qui relient les effets aux causes sont simples et peu nombreuses.Principe de l’univers construit : les représentations du monde sont téléologiques, l’intelligence organise le monde en s’organisant elle-même, « la connaissance n’est pas la découverte des nécessités mais l’actualisation des possibles » [Piaget, 1970].Principe d’objectivité : l’observation de l’objet réel par l’observant ne modifie ni l’objet réel ni l’observant. Si l’observant est modifié, cela ne concerne pas la science.Principe de l’interaction sujet-objet : l’interaction entre le sujet et l’objet est constitutive de la construction de la connaissance. Il ne peut y avoir « observations » indépendamment des observateurs qui les font.Principe de la naturalité de la logique : la logique est naturelle, donc tout ce qui est découvert par logique naturelle est vrai et loi de la nature. Donc tout ce qui ne pourra être découvert de cette manière devra être considéré comme non scientifique.Principe de l’argumentation générale : la logique disjonctive n’est qu’une manière de raisonner parmi d’autres et n’a pas besoin d’être posée comme naturelle. Ruse, abduction, induction et délibération heuristique permettent de produire des énoncés raisonnés.Principe de moindre action ou de l’optimum unique : entre deux théories, la plus « simple » sera tenue pour la plus scientifique.Principe d’action intelligente : le scientifique contemporain est un concepteur-observateur-modélisateur. Le concept d’action intelligente décrit l’élaboration, par toute forme de raisonnement descriptible a posteriori, d’une stratégie d’action proposant une correspondance adéquate (convenable) entre une situation perçue et un projet conçu par le système au comportement duquel on s’intéresse.Tableau 6 : Les paradigmes de recherche en sciences de gestion [David, 2000 a].
Dans la mesure où les sciences de gestion étudient les phénomènes sociaux dans un univers complexe, elles doivent alors se définir par leur projet de connaissances et non leur objet, projet qui consiste à représenter de manière intelligible les interventions des acteurs au sein des organisations : il s’agit en d’autres termes « d’identifier les processus cognitifs de conception par lesquels sont élaborées des stratégies d’action organisationnelles possibles et par lesquels ces systèmes se finalisent, s’auto-représentent et mémorisent leurs actions et leurs projets dans des substrats qu’ils perçoivent complexes » [Le Moigne, 1990 : 130].
Pour Le Moigne, les sciences de gestion s’inscrivent dans un paradigme constructiviste et admettent l’existence d’une réalité qui est construite de deux manières [David, 1999] :
Construite dans nos esprits, parce que nous n’en avons que des représentations,
Construite parce que, en sciences de gestion, les différents acteurs – y compris les chercheurs – la construisent ou aident à la construire.
Dans une perspective assez similaire, McKelvey reconnaît que l’ontologie des phénomènes sociaux ne peut être appréhendée que comme un univers complexe. Pour lui, les systèmes sociaux sont composés d’un grand nombre d’éléments qui interagissent de façon dynamique, non linéaire et avec des boucles de rétroactions récursives. De plus, ces éléments uniques et idiosyncrasiques adoptent un comportement intentionnel [McKelvey, 1997 ; Kaminska-Labbé et Thomas, 2007]. Cette approche est clairement celle retenue par Dupuy [1992] qui introduit l’idée d’une « autotranscendance » du social complexe. Cette idée traduit le fait que « ce sont les individus qui font les phénomènes collectifs ; et que les phénomènes collectifs sont (infiniment) plus complexes que les individus qui les ont engendrés, ils n’obéissent qu’à leurs lois propres en phénomènes d’auto-organisation » [Rojot, 1996 : 411]. Cette vision de la société est également celle soutenue par Giddens [1984] (cf. § 1.3.3.1.). Comme nous l’avons montré dans la section 1, Giddens défend l’idée selon laquelle action et structure se présupposent l’une l’autre dans une relation dialectique. Dans la perspective qu’il définit, la société est auto-organisée au sens de Dupuy : les activités des êtres humains sont récursives c’est-à-dire « qu’elles ne sont pas créées ‘ab initio’ par les acteurs sociaux mais recréées sans cesse par eux en faisant usage des moyens mêmes qui leur permettent de s’exprimer en tant qu’acteurs » [Rojot, 1996 : 412]. Ici, des interactions récursives entre acteurs, situées dans l’espace et dans le temps, naissent des structures par ce que Giddens appelle la dualité du structurel. Dans cette perspective, la production ou la constitution de la société est un accomplissement intentionnel de ses membres, mais qui prend place dans des conditions qui ne sont ni totalement intentionnelles, ni totalement comprises de leur part. En ce sens, les systèmes sociaux sont donc des univers construits par les acteurs mais qui ne peuvent pas forcément prédire le résultat de leur action.
Plusieurs méthodologies sont alors à la disposition du chercheur pour appréhender cette réalité : celui-ci peut explorer la réalité sur un mode « extérieur », c’est-à-dire en contribuant à la construction mentale de la réalité et seulement indirectement à sa construction concrète ; il peut également l’appréhender sur un mode « intervenant », c’est-à-dire en utilisant son intervention dans la construction concrète de la réalité pour contribuer à la construction mentale de celle-ci [David, 1999]. En d’autres termes, les méthodologies à disposition du chercheur sont nombreuses : il peut s’agir de modèle de simulation basé agent, d’études qualitatives ou encore de recherche qualifiée génériquement de recherche intervention.

Il est enfin important de montrer que cette perspective est également largement défendue par d’autres auteurs tels Romme [2003, 2004] et Romme et Endengurg [2006] dont les analyses révèlent le pragmatisme sous-jacent de cette épistémologie. Ainsi, pour Romme [2003, 2004], il existe plus spécifiquement trois modes différents d’engagement dans la recherche en sciences de gestion :
Le premier mode d’engagement, « science », consiste en la création d’une connaissance objective par la découverte et l’analyse des objets. La neutralité des connaissances produites est assurée par de fortes contraintes qui pèsent sur le chercheur pour éviter les biais personnels et les influences subjectives. Ici, les phénomènes organisationnels sont appréhendés en tant qu’objets de recherche empirique dotés de propriétés descriptives. Ce courant essaie donc de comprendre les phénomènes sociaux sur la base d’une objectivité consensuelle en découvrant les forces et modes généraux qui expliquent ces phénomènes.
Le second courant, intitulé « humanities », s’appuie sur l’idée forte selon laquelle la connaissance est par nature construite et narrative. Cela implique que la connaissance émerge des représentations du réel et des expériences des acteurs. La nature de la pensée est ici critique et réfléchie [Boland, 1989] et les recherches essaient de comprendre, interpréter, décrire l’expérience et le discours humain dans les pratiques organisées. Selon Romme, « l’objectif d’appréciation de la complexité est dans ce courant prioritaire sur l’objectif d’atteinte de la généralité » [2003 : 558].
S’appuyant sur les travaux de Simon [1996], Romme propose d’ouvrir le champ des épistémologies en intégrant un nouveau courant qu’il désigne lui-même de « design ». L’idée sous-jacente au design consiste à investir des systèmes qui n’existent pas encore. Il y a un changement total de perspective puisque l’acteur ne cherche plus à répondre à la question « est-ce fondé ou vrai » mais plutôt « cela va-t-il marcher ». La connaissance est donc fondamentalement pragmatique c’est-à-dire au service de l’action ; elle est par nature normative et synthétique [Romme, 2004].
Le tableau suivant apporte une vision synthétique du cadre conceptuel proposé par Romme. Il offre en outre l’avantage de présenter les principales complémentarités et différences entre les approches « science », « humanities » et « design ».

ScienceHumanitiesDesignObjectifComprendre les phénomènes organisationnels, sur la base d’objectivité consensuelle, en découvrant les patterns et forces qui expliquent ces phénomènes.Décrire, comprendre et avoir des réflexions critiques sur l’expérience humaine des acteurs dans le cadre de pratiques organisées. Produire des systèmes qui n’existent pas encore c’est-à-dire induire des changements dans les systèmes existants pour obtenir ceux que l’on souhaite.ModèleLes sciences naturelles (comme la physique) mais aussi d’autres disciplines qui ont adopté cette approche comme l’économie.Les sciences humaines en général (comme l’histoire, la littérature, la philosophie par exemple).Conception et ingénierie (architecture, informatique, aéronautique)Vision de la connais-sanceReprésentationnelle : la connaissance représente le monde tel qu’il est, la nature de la pensée est descriptive et analytique.
Plus spécifiquement, ce courant est caractérisé par la recherche de connaissances générales et fondées et un « bricolage » de formulations, d’hypothèse et de tests.Construite et narrative : toute la connaissance émerge de ce que pensent et expriment les acteurs à propos du monde ; la pensée est critique et réfléchie.Pragmatique : la connaissance est au service de l’action, la pensée est normative et synthétique.
Plus spécifiquement, ce courant postule que chaque situation est unique et fixe des objectifs à atteindre. Il accorde une importance toute particulière à la participation, au discours comme mode d’intervention et à l’expérimentation pragmatique.Nature des objetsLes phénomènes organisationnels sont appréhendés comme des objets empiriques, dotés de propriétés descriptives et qui peuvent être efficacement étudiés en adoptant une posture extérieure.L’accent est porté sur les discours dans lesquels les acteurs et les chercheurs s’engagent. La priorité est donnée à l’appréciation de la complexité d’un discours et non à l’obtention d’une connaissance générale. Les problèmes organisationnels et plus généralement les systèmes sont appréhendés comme des objets artificiels dotés de propriétés descriptives mal définies, qui requièrent des actions non routinières d’agents placés au cœur des pratiques. Ceci suppose alors des objectifs et des cibles à atteindre.Modes de dévelop-pement théoriqueDécouverte de relations causales générales entre variables elles-mêmes exprimées sous forme d’hypothèses dont on cherche la validité. Les conclusions restent dans les limites de l’analyse.La question clé de ce courant peut se résumer comme suit : dans quelle mesure une certaine catégorie d’expériences humaines est vraie, juste … ?Est-ce qu’un ensemble intégré de propositions de conception fonctionne dans une certaine situation mal définie ? Ici, la conception et le développement de nouveaux artefacts ont tendance à dépasser les frontières de la définition initiale de la situation.Tableau 7 : Les trois idéaux-types d’engagement dans la recherche en sciences de gestion [adapté de Romme, 2003 : 559]
Ce tableau montre les éclairages différents sous lesquels les recherches en sciences de gestion peuvent être effectuées. Romme note à ce propos que le courant science est dominant à l’heure actuelle dans les sciences sociales. Il souligne en outre son désarroi face aux querelles épistémologiques qui opposent les tenants de l’épistémologie humanities et ceux de l’épistémologie science. Selon lui, « ce débat permanent a conduit les chercheurs à perdre de vue la question fondamentale des objectifs même de la recherche » [Romme, 2004 : 496] et au-delà, il a conduit les chercheurs en sciences sociales à totalement occulter le courant design.
Au regard des approches épistémologiques précédemment étudiées (cf. § 4.1.2.), nous pouvons ici relever l’appartenance du courant science aux approches positivistes au sens large c’est-à-dire aux épistémologies construites sur l’idée d’un univers câblé. Le courant design s’inscrit quant à lui dans une épistémologie de l’univers complexe et plus précisément, il correspond au constructivisme tel que les chercheurs français en sciences de gestion l’interprètent c’est-à-dire comme « une posture dans laquelle sujet et ‘objet’ co-construisent mutuellement un projet de recherche » [Giordano, 2003 : 23].
Les apports de Romme se situent dès lors dans la distinction, au sein des épistémologies bâties sur l’univers complexe, d’une épistémologie totalement fondée sur la pratique de conception. Les contributions de Simon aux sciences de gestion sont ici largement mises en exergue même si celles-ci avaient déjà été développées par Le Moigne dans sa définition de l’épistémologie constructiviste.

Nous voyons ainsi que la méthodologie retenue dans notre recherche ne peut s’inscrire dans une épistémologie positiviste : au contraire, elle s’appuie sur l’idée forte d’un univers complexe que le chercheur tente d’appréhender avec des méthodes qui lui sont propres. Plus encore, il semble incontournable, par essence, d’ancrer les méthodologies de recherche intervention telles que définies précédemment dans un positionnement constructiviste et de design [David, 2000 a, 2000 b ; Plane, 2000 ; Chanal, Lesca et Martinet, 1997 ; Allard-Poesi et Perret, 2003]. Cet ancrage peut s’illustrer à plusieurs niveaux :
Dans la définition même du chercheur, décrite dans ces méthodes comme un intervenant qui modifie le comportement des acteurs et transforme ainsi la réalité. Ceci est conforme à l’optique constructiviste où les idées d’objectivité et donc d’un possible accès au réel sont abandonnées.
Dans la conception par le chercheur d’une situation idéalisée, conforme au principe de l’univers construit : la connaissance n’est plus la découverte des nécessités mais l’actualisation des possibles.
Dans la vision du contexte, conforme à l’hypothèse de la complexité sous jacente au paradigme constructiviste : la complexité est dans cette perspective la propriété d’un système modélisable susceptible de manifester des comportements qui ne soient pas tous pré-déterminables bien que potentiellement anticipables [Thomas, 1997].
Ce positionnement se justifie aussi au regard de la réalité gestionnaire « qui est construite dans nos esprits, parce que nous n’en n’avons que des représentations, construite parce que, en sciences de gestion, les différents acteurs, y compris les chercheurs, la construisent ou aident à la construire » [David, 2000 a, repris par Allard-Poesi et Perret, 2003]. Finalement, nous adhérons, à travers notre démarche de recherche intervention, aux principes énoncés par Bachelard, un des pères fondateurs du constructivisme :
« Et quoi qu’on en dise, dans la vie scientifique, les problèmes ne se posent pas d’eux-mêmes. C’est précisément ce sens du problème qui donne la marque du véritable esprit scientifique …Rien ne va de soi. Rien n’est donné. Tout est construit. »
[Bachelard, 1938 :14]
3.2.3. La « boîte à outils » du chercheur-intervenant
Dans cette partie, notre objectif est double : il consiste d’une part en l’analyse des principes et méthodes propres à la recherche intervention, et d’autre part, en la description du design de ces méthodes.
3.2.3.1. Les principes et règles méthodologiques de la recherche intervention
Dans tout type de recherche, le chercheur dispose d’outils lui conférant une grille de réflexion et d’action sur le terrain. Cette boîte à outils, dans le cas d’une recherche intervention, s’articule atour des cinq principes suivants [Hatchuel, 1994] :
Principe de rationalité accrue : « il s’agit d’éviter soit que la stabilité des acteurs n’impose une mutilation de la connaissance disponible ou n’interdisent certains points de vue, soit, à l’inverse, que des transformations n’échouent parce qu’elles expriment plus la coalition de certains acteurs que l’existence de savoirs qui la légitiment. […] Il s’agit donc d’une meilleure adéquation entre la connaissance des faits et les rapports qu’ils rendent possibles entre les hommes » [ibid. : 68]. En d’autres termes, le rôle du chercheur-intervenant ne consiste pas à mettre en place un dialogue entre les acteurs ni à jouer l’expert en fournissant des connaissances de l’extérieur. Il doit assurer la mise en compatibilité de relations et de connaissances nouvelles, ce qui constitue véritablement la démarche de rationalisation.
Principe d’inachèvement : ce dernier stipule qu’aucun acteur, qu’il s’agisse du chercheur ou des responsables d’organisation, ne peut par avance formuler la démarche ni l’aboutissement de l’intervention. Ce principe permet alors que des connaissances nouvelles soient générées, connaissances portant à la fois sur l’outil et l’organisation.
Principes de scientificité et d’isonomie : le principe de scientificité impose au chercheur d’adopter en permanence une attitude critique sur les faits et les théories véhiculées, de s’interroger tout au long de l’intervention sur les conditions de validation des savoirs mobilisés. Selon le principe d’isonomie, cet effort de compréhension doit s’appliquer à tous les acteurs concernés. Ainsi, ce principe correspond à l’idéal démocratique, « mais qu’on ne s’y trompe pas : à l’évidence, les organisations n’accordent pas à chacun un droit égal d’expression ou de conception de l’action à conduire. Le pouvoir économique, les structures, la répartition des tâches et des responsabilités sont justement là pour faire que les différents acteurs ne soient pas à égalité de point de vue » [ibid. : 68-69]. Le chercheur-intervenant doit alors s’efforcer de construire un réseau d’échanges entre acteurs respectant à la fois cette recherche de vérité et de démocratie.
Principe des deux niveaux d’interaction : l’essence même de la recherche intervention consiste en l’interaction répétée entre le chercheur intervenant et les acteurs du terrain. Ces interactions se situent à deux niveaux qui se renforcent mutuellement : le dispositif d’intervention et la démarche de connaissances. Dans le dispositif d’intervention, les interactions entre le chercheur et les acteurs ne sont pas fixées à l’avance et peuvent susciter la création de nouveaux liens via des comités ad hoc ou de pilotage par exemple. Ces nouvelles relations visent à créer les conditions pour la mise en place d’une nouvelle boucle de dynamique des connaissances et pour la confrontation des savoirs des acteurs concernés et ceux du chercheur intervenant. La démarche de connaissance est donc de nature activatrice, « le chercheur va alors s’efforcer de formuler des trajectoires différentes, en provoquant de nouvelles enquêtes, en élaborant des scénarios prospectifs ou en proposant de nouveaux outils analytiques » [ibid. : 70]. Elle se distingue des démarches plus classiques de type compréhensif qui ne permettent d’appréhender qu’une part restreinte des trajectoires possibles d’un collectif, c’est-à-dire celles exprimées par les acteurs.
À partir de ces principes, David [2000 b] dresse les trois règles méthodologiques suivantes :
Principe d’investigation prospective : la spécificité d’une recherche intervention réside dans sa finalité, à savoir produire des transformations sur l’organisation. Dans cette perspective, le chercheur intervenant ne peut se contenter d’effectuer une analyse statique du système étudié.
Principe de conception : il s’agit pour le chercheur de dépasser rapidement la phase des entretiens afin d’intervenir au plus vite par la conception puis la mise en œuvre d’outils dans l’organisation.
Principe de libre circulation entre niveaux théoriques : le raisonnement du chercheur s’articule dans une boucle récursive abduction/déduction/induction. Ainsi, une hypothèse explicative est construite par abduction pour rendre compte des données posant problème ; les conséquences possibles de cette hypothèse sont explorées par déduction ; l’induction permet de confirmer ou d’infirmer les règles ou théories mobilisées ; enfin, si ces règles sont infirmées, de nouvelles hypothèses explicatives sont reformulées par abduction, déclenchant une nouvelle boucle de raisonnement. Dans cette perspective, la scientificité des résultats est obtenue par « l’explicitation des inférences faites à partir des observations de terrain ou à partir de théories de différents niveaux » [David, 2000 c : 20]. Nous détaillerons dans le paragraphe 4.2.3. ces éléments de validation scientifique dans le cas d’une recherche intervention.
Ces différents principes et règles méthodologiques mettent en exergue les spécificités d’une recherche intervention et apportent au chercheur un guide pour conduire son intervention sur le terrain. L’objectif de la recherche consiste à changer la réalité. Il s’agit donc de concevoir, grâce aux connaissances théoriques, une situation idéalisée puis de mettre en œuvre les outils permettant de l’atteindre. Plusieurs étapes doivent permettent l’élaboration de connaissances, étapes qui portent le nom générique de « design de la recherche ».
3.2.3.2. Le design des recherches interventions
La spécificité des démarches de recherche intervention réside dans l’aptitude du chercheur à effectuer des allers-retours entre la théorie et le terrain. Dans cette perspective, Hatchuel et Mollet [1986] définissent cinq grandes phases dans le design d’une recherche intervention :
la perception du problème (« the feeling of discomfort ») pendant laquelle le chercheur observe les dysfonctionnements, les rôles et tâches des acteurs et les améliorations possibles. Dans cette phase, il y a co-construction du problème entre le chercheur et les acteurs du terrain c'est-à-dire confrontation des connaissances théoriques du chercheur avec le problème de terrain.
la construction d’un mythe rationnel (« building a rational myth ») qui consiste à transformer des perceptions en concepts et données et à construire une théorie de l’organisation appropriée au problème. Cette étape est donc celle de la modélisation d’un support théorique devant permettre l’intervention.
la phase expérimentale : intervention et interaction (« intervention and interaction ») : les deux phases précédentes aboutissent à un projet d’outil constituant un nouveau stimulus pour les acteurs. Les réactions de ces acteurs portent sur la modélisation théorique de l’organisation sous-jacente à l’outil mais aussi, dans le cas d’outils TIC, sur l’outil lui-même.
la définition d’un ensemble simplifié de logiques d’action (« the inductive phase : portraying a set of logics »). Le stimulus provoqué en phase 3 déclenche un processus d’apprentissage au cours duquel chaque acteur sera incité à donner sa vision du processus dans lequel il est impliqué et à utiliser les opportunités données par sa propre situation pour encourager ou, au contraire, lutter contre l’outil et la modélisation qu’il porte.
le processus de changement (« the change process : knowledge versus implementation ») : cette étape vise, par la mise en œuvre de l’outil, à une transformation croisée de l’organisation et de l’outil et l’élaboration de connaissances sur ces deux dimensions.
Les étapes proposées par Hatchuel et Mollet sont essentielles puisqu’elles permettent de guider les concepteurs dans leur activité de conception. Elles indiquent notamment qu’il est nécessaire, dans un premier temps, de co-construire le problème avec les acteurs du terrain en s’appuyant pour cela sur les connaissances théoriques dont nous disposons, puis, dans un second temps, d’élaborer un modèle ou un outil. Notons ici que Hatchuel et Mollet, à l’instar de l’école de la traduction, prônent l’intégration des usagers dès les débuts de la conception.
Ce modèle de conception coïncide donc avec notre hypothèse de départ selon laquelle une démarche usage pourrait accroître le succès d’une activité de conception (et notamment l’appropriation de la solution TIC par les usagers). En effet, prenant appui sur les apports de l'école de la traduction, nous avons montré que les usagers ont un rôle primordial à jouer : ils doivent intervenir tout au long du processus de création de l'outil de telle sorte qu'il y ait co-évolution des usages et de la conception. L’objectif recherché est que les services ou fonctionnalités inscrits dans la solution soient co-construits de sorte à faciliter l’intégration de celle-ci dans un contexte d’usage donné. Loin d’être considéré comme une « boîte noire », la solution technique est alors appréhendée tel un compromis sociotechnique conclu entre le monde des concepteurs et celui des utilisateurs. Ces derniers sont amenés à contribuer de manière active à son façonnage c’est-à-dire à son design mais également à la définition du contenu de ses objets ou interfaces.
Au-delà, nous avons montré, grâce notamment à la cognition distribuée, que les individus qui utilisent les outils dans le cadre de leurs activités, profitent dans le même temps de toute la connaissance accumulée qui y est contenue et véhiculée. De fait, il est nécessaire dès les prémices de la conception, d’inscrire dans la technologie des représentations qui soient aptes à assurer un couplage entre l’action des usagers et leur usage de l’outil. Ici, penser le design technologique implique alors de construire des scénarios d’usage au regard d’un environnement d’usage pertinent, celui précisément dans lequel l’interaction usager-technologie prend sens et se construit.
Dans la perspective que nous proposons, la construction de scénarios d'usage devient une étape supplémentaire des démarches classiques de conception et implémentation d'outils, intervenant à la fois en amont de l’outil pour sa conception et en aval pour son évaluation. Cette prise en compte des usagers dès la conception nous conduit alors à intervertir les phases 3 et 4 (respectivement la phase expérimentale et la définition d’un ensemble simplifié de logiques d’action) des méthodes classiques de conception de façon à intégrer les usagers dès les prémices de la co-conception.
La démarche de co-conception orientée usage que nous proposons peut alors être schématisée comme suit :

Figure 20 : Les boucles de co-conception dans une démarche orientée usage
En conclusion, penser la conception en intégrant les usagers conduit à définir six nouvelles étapes : 1) perception du problème, 2) transformation des perceptions en concepts et données, 3) description des logiques d'action au sein des scénarios d'usage, 4) matérialisation du modèle théorique en tenant compte des logiques d'action des acteurs, 5) phase expérimentale avec évaluation de l'outil, 6) processus de changement. La dernière étape sera l’occasion de la mise en œuvre d'une nouvelle boucle de co-conception. En effet, parce que nous accordons une place centrale aux usagers et que nous concevons l'innovation comme un processus tourbillonnaire, chacune de ces étapes participera à la formation de boucles itératives de co-conception, chaque boucle étant l’occasion d’un enrichissement à chacune des étapes.
3.2.3.3. Plaidoyer en faveur d’une démarche « scientifique » de recherche intervention
Allard-Poesi et Perret [2003], décrivant les différentes étapes analysés précédemment, dévoilent les difficultés liées à ce type de démarche dans laquelle le chercheur doit être capable de construire à partir du monde empirique et du monde théorique : « il s’agit, en effet, pour lui, d’une part de maîtriser les connaissances théoriques lui permettant d’élaborer un modèle, mais également des compétences méthodologiques et techniques satisfaisant la nécessité d’ancrage et d’efficacité de l’outil dans un contexte particulier » [2003 :114]. Ces auteurs s’interrogent alors quant à la légitimité des connaissances produites par ces démarches de recherche. Elles notent « qu’il apparaît ainsi difficile de chercher à produire des connaissances qui, tout à la fois, soient utiles aux acteurs et disposent d’une portée théorique. L’objet et le dispositif de recherche risquent en effet à tout moment de devenir le monopole de l’une ou l’autre des parties […]. La résolution de cette tension dynamique « dedans/dehors » […] posera toujours question quant à la légitimité des connaissances produites » [op. cit. :127].
De telles critiques amènent alors à soulever la question de la légitimité des connaissances produites par les méthodes de recherche intervention. Ce manque de légitimité pourrait en effet expliquer que peu de recherches en sciences de gestion investissent à l’heure actuelle ce type de méthode. Il nous semble pourtant qu’une nouvelle voie de réflexion, dans la lignée des approches précédentes, se dessine aujourd’hui. Cette nouvelle approche vise à reconsidérer la conception en sciences de gestion comme un véritable champ scientifique [Romme et Endenburg, 2006], c’est-à-dire à rendre les méthodes de recherche intervention plus scientifiques.

Pour ce faire, les auteurs proposent un couplage entre les sciences sociales et les méthodologies de conception, couplage offrant la possibilité aux études des organisations de « s’aventurer au-delà de leur adolescence –caractérisée par l’observation et l’explication d’événements naturels de manière dégagée- vers une science plus mature qui s’engage aussi dans l’ingénierie des processus et structures organisationnelles » [Romme et Endenburg, 2006 : 3]. La méthode suggérée s’articule autour de cinq composantes clefs :
La science des organisations (organization science). Il s’agit de l’ensemble des concepts, théories, relations vérifiées par l’expérience qui permettent d’expliquer des processus et résultats organisationnels. De cette manière, la science de l’organisation fournit, ou doit fournir, la trame de fond théorique pour concevoir les principes de construction.
Les principes de construction (construction principles) se définissent comme « un ensemble cohérent de propositions, bâties sur l’état de l’art en sciences des organisations, pour produire de nouvelles conceptions et formes organisationnelles et redévelopper celles existantes » [Romme et Endenburg, 2006 : 288]. Les auteurs précisent que de nombreux principes de construction peuvent être élaborés dans la mesure où les théories en sciences de l’organisation sont nombreuses et les principes organisationnels fortement diversifiés. Ils notent également que ces principes de construction peuvent servir de lien entre la nature descriptive et explicative des propositions théoriques et la nature prescriptive des règles de design.
Les règles de design (design rules) servent de guide pour concevoir et réaliser le système organisationnel. Il s’agit donc de règles qui s’appuient sur les principes de construction pour guider les actions à mettre en œuvre dans l’organisation, en d’autres termes de règles heuristiques qui vont servir de base aux tâches de conception.
Le design organisationnel (organizational design) consiste en un développement du système organisationnel souhaité à partir des règles de design précédemment conceptualisées. Le design organisationnel est ainsi le fruit des interactions entre les règles de design, les contingences de la situation de conception (comme par exemple l’histoire de l’organisation, sa taille, les technologies …) et les préférences des acteurs engagés dans l’activité de design. Pour Romme et Endenburg, les règles de design ne peuvent être directement testées, ce sont les solutions spécifiques de design organisationnel qui le sont.
L’implémentation et l’expérimentation (implementation and experimentation) : cette étape consiste en l’implémentation du design organisationnel et au test des résultats engendrés par ce design.
Pour Romme et Endenburg [2006], ces composantes forment les étapes essentielles d’une approche scientifique de la conception. Elles peuvent être représentées comme suit :

Figure 21 : Le cycle de recherche et de développement de l’approche scientifique de design organisationnel [adapté de Romme et Endenburg, 2006 : 288]
L’approche méthodologique ainsi proposée suggère alors d’élaborer dans un premier temps des principes de construction en s’appuyant sur les théories en sciences de gestion. Dans un second temps, ces principes vont servir de base à la construction de règles pour l’étape à proprement parlée du design. Le design vise alors à concevoir une solution unique du système, solution qui correspond à l’objectif fixé par le chercheur et les acteurs du terrain. Dans la perspective de Romme et Endenburg [2006], ces différentes étapes se complètent par l’observation, l’analyse et l’interprétation des processus et résultats engendrés par le design, et, si nécessaire, par l’adaptation ou l’élaboration d’une nouvelle théorie (représentée par la flèche 1). En outre, les expériences et observations issues de l’étape d’implémentation et d’expérimentation peuvent amener les acteurs à reconsidérer le design organisationnel (flèche 4), les règles de design (flèche 3) ou encore les principes de constructions (flèche 2).
L’approche scientifique proposée par Romme et Endenburg [2006] se distingue ainsi de celle d’Hatchuel et Mollet [1986] par une plus grande assise sur les apports théoriques du champ des sciences de l’organisation pour construire le modèle d’intervention. Pour autant, cette approche ne nous apparaît pas incompatible avec celle d’Hatchuel et Mollet. En effet, même si ces auteurs ne mettent pas véritablement l’accent sur les principes théoriques pour construire le modèle d’intervention, ils sont sous-jacents au développement de chacune des étapes. Ainsi, la perception des problèmes ne correspond-t-elle pas à une confrontation des connaissances théoriques du chercheur avec celles de l’acteur de terrain ?

Nous proposons donc de coupler les différentes étapes de Romme et Endenburg, plus orientées sur la théorie, avec celles d’Hatchuel et Mollet, plus orientées terrain. Ce couplage peut être représenté comme suit :

Figure 22 : Couplage des designs de recherche intervention
Le couplage méthodologique proposé suggère dans un premier temps de percevoir les problèmes du terrain. Dans un second temps, la transformation des perceptions doit s’appuyer sur les sciences des organisations pour proposer des principes de construction et règles de design. Il s’agit par la suite d’adapter les règles de design au contexte appuyé en cela par les scénarios d’usage pour appréhender le contexte pertinent à retenir. La troisième phase coïncide dans les deux modèles et consiste en la matérialisation soit du modèle soit de l’outil pour implémentation, expérimentation puis évaluation (phase 5). Le processus de changement permet enfin l’instauration d’une nouvelle boucle de co-conception qui autorise une remise en question de chacune des phases précédemment décrites.

Assurer la scientificité des démarches de recherche intervention nous a conduit à rapprocher les méthodes de Romme et Endenburg [2006] avec celles d’Hatchuel et Mollet [1986] et à proposer un modèle détaillé d’action qui combine à la fois des problématiques de terrain et des connaissances issues de théories en sciences de l’organisation. Le modèle que nous soumettons accorde donc une place centrale à la conception, et dans notre problématique plus spécifique, à la conception d’une solution TIC.
3.3. Le contexte de l’intervention : le projet KMP
Initié en 2001 et labellisé par le RNRT en Mai 2002, le projet KMP est un projet exploratoire dont l’objectif principal était de construire un prototype de service web de compétences pour les membres d’une association sophipolitaine, la Telecom Valley. Le financement RNRT obtenu en novembre 2002 a permis de soutenir le développement du projet pendant une période de 28 mois, de janvier 2003 à avril 2005. L’évaluation du projet KMP a été très positive à la fin de cette première période puisque les membres de Telecom Valley ont décidé, avec le soutien de la région PACA et du département des Alpes Maritimes, de poursuivre le projet en mettant en œuvre une phase de pré-industrialisation, aidés en cela par un financement DRIRE obtenu pour une période d’un an.
Nous souhaitons dans cette section tout d’abord présenter ce projet dans sa globalité (§ 3.3.1) avant de développer de manière plus spécifique l’analyse des boucles de co-conception qui ont conduit l’évolution de la construction du prototype (§ 3.3.2.). Il s’agira alors de mettre en évidence les hypothèses théoriques développées dans les sections précédentes qui nous ont véritablement permis de construire ce projet de recherche puis de nous interroger sur la validité des résultats produits (§ 3.3.3.).
3.3.1. Présentation du projet
Le projet KMP s’inscrit dans une problématique de gestion de connaissances à l’échelle d’un réseau d’entreprises et d’institutions de recherche là où les projets de KM existants s’établissent au niveau d’un groupe (team level) ou d’une entreprise (corporate level). Le projet KMP constitue une nouvelle approche de la gestion des connaissances visant à faciliter des partenariats au sein d’un réseau par l’élaboration d’une cartographie des compétences devant aboutir à l’identification, puis à la gestion d’une chaîne de valeur dans le domaine des télécommunications. Le terrain de recherche retenu est une association, Telecom Valley (TV) basée à Sophia Antipolis.
La présentation de ce projet s’articule en cinq étapes. Nous exposerons tout d’abord le contexte dans lequel ce projet se déroule (§ 3.3.1.1.), puis, nous décrirons les objectifs qui l’ont guidé (§ 3.3.1.2.). Ensuite, nous définirons les membres de l’équipe de conception (§ 3.3.1.3.) et l’organisation du projet (§ 3.3.1.4.) afin d’exposer, in fine, les principaux résultats opérationnels obtenus (§ 3.3.1.5.).
3.3.1.1. Le contexte
Afin de mieux appréhender ce terrain, une brève présentation de la technopole de Sophia Antipolis puis de l’Association Telecom Valley® sont nécessaires.
La technopole de Sophia Antipolis
Créée en 1974, la technopole de Sophia Antipolis s'est développée de façon constante depuis plus de 30 ans grâce à la volonté affirmée des forces vives du département des Alpes-Maritimes, de l’Etat, de la Région PACA ainsi que des cinq premières communes initiales (Biot, Valbonne, Mougins, Vallauris et Antibes) dont les terrains forment les 2 300 hectares actuels. Son développement a été bâti en trois phases successives [Longhi, 1999 ; Moreau et Bernasconi, 2001 ; Lazaric, Longhi et Thomas, 2004] :
Phase 1 - 1974 à 1990 : la première période se caractérise tout d’abord par la décentralisation d’entreprises et de laboratoires publics français suivis par l’implantation d’entreprises multinationales, principalement américaines. Pendant cette période, l’accumulation d’activités a été importante dans trois ensembles technologiques dominants : les activités informatiques, électroniques et de télécommunications à l’origine de la croissance du parc et du développement de son tissu industriel ; les activités des sciences de la vie et de la santé ; les activités en sciences naturelles et de l’environnement. Cette première période a également été marquée par le développement important de PME venues profiter du marché créé par les grandes entreprises et les centres de recherche. Pour Lazaric, Longhi et Thomas [2004], cette période se concrétise finalement par la création d’une véritable plateforme satellite, système caractérisé notamment par un management effectué par l’extérieur, de nombreuses connections majoritairement orientée vers l’extérieur et des logiques de gouvernance totalement indépendantes des échanges possibles avec les autres acteurs du site.
Phase 2 - 1991 à 1994 : le modèle d’accumulation permis par les implantations ne fonctionne plus à partir de la fin des années 90. La restructuration des activités informatiques due à la crise que connaît le secteur au début de cette période amène les grandes entreprises à quitter le site. Cette crise a pour effet de définir une nouvelle stratégie de développement qui portera ses fruits à partir de 1995 et s’accompagnera d’un renforcement de créations d’entreprises. Peu à peu, le site va connaître une vague de spécialisation, de l’industrie de l’informatique à l’industrie des télécoms et de l’Internet. C’est dans ce contexte turbulent que de nombreuses associations, dont Telecom Valley, se créent.
Phase 3 - 1995 à 2000 : dès le milieu de la décennie, une nouvelle phase de développement est amorcée grâce à l’implantation nouvelle d’établissements dans les technologies de l’information et au développement des entreprises déjà implantées. Les compétences technologiques existantes permettent à Sophia Antipolis de tirer parti de la nouvelle économie par de nombreuses créations d’entreprises dans les technologies des télécommunications, des réseaux, du multimédia, et des logiciels. L’industrie des télécoms devient centrale et se développe autour des systèmes mobiles et de leurs applications.
L’association Telecom Valley
Telecom Valley® est une association loi 1901 fondée en 1991 par 7 majors des télécommunications présents à / et autour de Sophia Antipolis : Aérospatiale (Alcatel Aliéna Space), AT&T Paradyne, Digital (HP), ETSI (Institut Européen de Normes des Télécommunications), France Télécom, IBM, Texas Instruments. Cette association rassemble aujourd’hui plus de 70 membres industriels et institutionnels, représentant plus de 10 000 emplois. Telecom Valley soutient activement le développement d'un pôle de compétences unique, à vocation internationale, dans les domaines des Télécommunications et des Technologies de l'Information et de la Communication. Pour fonctionner, elle s’appuie sur ces différents membres, qui, bénévolement, réfléchissent au sein de différentes commissions au développement de la technopole de Sophia Antipolis. Aujourd’hui, l’association Telecom Valley est devenue un acteur important du développement régional en France et est reconnue sur le plan international.
Origines du projet
Les premières interactions concernant le projet KMP se sont construites autour d’une demande des institutionnels locaux de l’association TV (Chambre de Commerce et d’Industrie de Nice Côte d'Azur, Côte d'Azur Développement, Fondation Sophia Antipolis…). Ces derniers ont souhaité élaborer une cartographie des compétences du site sophipolitain. Ils exprimaient ainsi le besoin de repérer et valoriser les compétences en télécommunications des organisations de la région dans un but de marketing territorial.
Le projet KMP est ensuite le résultat de réflexions menées par la Commission Développement de TV et le laboratoire RODIGE, Unité Mixte de Recherche du CNRS et de l’Université de Nice Sophia Antipolis, spécialisé dans la recherche en management et gestion d’entreprises et l’analyse des modes de coopération inter-entreprises.
Le projet KMP s’est enfin inscrit dans le cadre de la création d'un Laboratoire des Usages orienté sur l’observation des usages TIC et initié par le CNRT Télius -Télécoms, Internet et Usages- de Sophia Antipolis. Projet scientifique pilote du Laboratoire des Usages, le projet KMP répondait initialement à une opportunité de porter un regard pluriel sur les usages des TIC afin d’expérimenter et de concevoir de nouveaux services à valeur ajoutée. Le projet est soutenu par les membres fondateurs du Laboratoire des Usages (UNSA, CNRS, INRIA et GET) et des membres associés, opérateurs et industriels, dont Telecom Valley. In fine, ce projet devait aboutir à la conception et la mise en place d'un service "Web de compétences" afin de faciliter l'élaboration de partenariats et consortium de recherche efficaces.
3.3.1.2. Les objectifs
Le projet KMP propose l’élaboration d’un service web sémantique de compétences pour les membres de Telecom Valley. L’objectif est de valoriser le capital de compétences de cette association en aidant chaque acteur à exprimer ses intérêts dans un espace commun. Dans cette perspective, le service web développé devait donc permettre un repérage et une description :
des compétences;
des acteurs ;
de leurs interactions réelles ou potentielles.
À la suite de plusieurs entretiens exploratoires pour appréhender les besoins des acteurs, trois scénarios génériques ont été identifiés :
Le scénario 1 intitulé «Avoir et donner une visibilité générale de la communauté Telecom Valley® » cherche véritablement à promouvoir le site « Telecom Valley® » et son développement international en fournissant des informations pertinentes aux institutionnels locaux ainsi qu'aux organes de gestion de l'Association,
Le Scénario 2, « Rechercher et échanger des informations dans le cadre des coopérations inter-entreprises » a pour but de faciliter les partenariats entre les différentes entreprises industrielles du site,
Le Scénario 3 identifié par « Rechercher et échanger des informations dans le cadre des coopérations recherche publique – recherche privée » cherche à favoriser les partenariats de recherche entre les industriels et les organismes de recherche du site sophipolitain.
L’originalité du projet se situe dans le choix, dès les origines, d’une méthodologie orientée « usages » qui implique une double particularité :
ce projet accorde une place importante à l'analyse des pratiques et à l'observation des usages ;
il se construit en partenariat avec une association, Telecom Valley, véritable communauté industrielle dans le domaine des télécommunications et des services associés.
Cette double particularité a nécessité une organisation spécifique : les utilisateurs ont été représentés par le Comité de Pilotage, les concepteurs et producteurs de l'outil ont constitué l'Equipe Projet. Cette organisation visait à assurer une coordination permanente entre ces deux types d'acteurs afin de produire une solution innovante de « Knowledge Management » partagée et adaptée à un fonctionnement en réseau.
3.3.1.3. L’équipe de conception
L’équipe de conception du projet KMP s’articule autour de deux composantes : le comité de pilotage et l’équipe projet.
Le comité de pilotage
Le Comité de Pilotage était présidé par le Président de Telecom Valley au moment du montage du projet et coordonné par le responsable de la Commission Technique de Telecom Valley, initiateur de la cartographie. Ce comité de pilotage était composé des représentants des utilisateurs pilotes du projet à savoir :
pour les entreprises : Amadeus, Atos Origin, Coframi, Elan It, France Télécom R&D, HP, IBM, Philips Semiconductors, Qwam System, Transiciel,
pour les institutionnels : Côte d’Azur Développement (CAD) et la Chambre de Commerce Nice – Côte d’Azur (CCI) via l’Initiative Riviera Technologies,
pour les organismes de recherche : l’UNSA-CNRS (Université de Nice Sophia Antipolis), l’INRIA (Institut National de Recherche en Informatique et Automatique) et EURECOM.
L’équipe projet
L'Equipe Projet, coordonnée le RODIGE, était composée des différents partenaires répondant à cet appel d'offres :
RODIGE, Recherche sur l'Organisation, la Dynamique, et l'Information de Gestion des Entreprises : trois enseignants chercheurs et un ingénieur de recherches spécialisés dans les modes de coopération inter-entreprises, la dynamique des compétences et les nouveaux modes et design organisationnels participent au projet. Nous avons également intégré l’équipe projet avec un autre doctorant.
LATAPSES, LAboratoire de Transformations de l'Appareil Productif et Stratégies Economiques Sectorielles : un chercheur CNRS participait au projet.
INRIA, Institut National de Recherche en Informatique et Automatique. Depuis plusieurs années l'INRIA est impliqué dans l’étude des connaissances et de la mémoire d’entreprise, par l’intermédiaire du projet multidisciplinaire ACACIA (INRIA Sophia-Antipolis), qui est composé d’informaticiens et de psychologues ergonomes. Dans cette équipe, deux chercheurs et un ingénieur participent au projet.
GET, Groupe d’Ecoles de Télécommunications : deux écoles du GET sont impliquées dans ce projet : l’ENST Bretagne, et son pôle Intelligence Artificielle et Sciences Cognitives ; Télécom Paris à travers l’équipe Economie-Gestion du département EGSH.
TELECOM VALLEY : des membres de TV, appartenant à la Commission Développement, ont été directement impliqués dans la réalisation de l'outil.
3.3.1.4. L’organisation du projet
Au total, le projet KMP a mobilisé 182 hommes/mois, et deux doctorants qui ont obtenus des financements alternatifs. Son organisation peut être schématisée de la façon suivante :

Figure 23 : Organisation de l’équipe de conception du projet KMP
Ce projet, initié dans le cadre du Laboratoire des Usages de Sophia Antipolis, présente une double originalité :
il accorde une place importante à l'analyse des pratiques et à l'observation des usages,
il se construit en partenariat avec une association, Telecom Valley, véritable communauté de pratiques dans le domaine des télécommunications et des services associés.
Cette double particularité appelle une organisation spécifique : les utilisateurs sont représentés par le Comité de Pilotage, les concepteurs et producteurs de l'outil constituent l'Equipe Projet. Cette organisation vise à assurer une coordination permanente entre ces deux types d'acteurs afin de produire une solution innovante de "Knowledge Management" partagée et adaptée à un fonctionnement en réseau d'entreprises.
Sous-Projet 0 : Coordination et management de projet (responsable RODIGE)
Le sous-projet 0 s'articule autour de deux axes complémentaires :
la coordination des différents sous-projets
les interfaces entre l'équipe projet et le Comité de Pilotage
Il répond à plusieurs objectifs :
Coordonner les différents sous-projets afin de garantir les résultats attendus et présentés pour l’obtention d’un financement RNRT. Le rôle principal du responsable du sous-projet 0 est de veiller au respect des échéances.
Assurer les interfaces entre l’Equipe Projet avec le Comité de Pilotage : es interfaces sont essentielles dans la mesure où le projet accorde une place importante à la dimension usages, à leur anticipation et leur analyse. L'implication continue du Comité de Pilotage, composé des représentants des différentes catégories d'utilisateurs est un facteur clé de succès du projet et de ses prolongations futures.
Sous-Projet 1 : Ontologie pour la représentation des compétences (responsable INRIA-Acacia)
Le sous-projet 1 vise à élaborer une ontologie relative aux compétences en télécommunications sur la base de laquelle seront formalisées les compétences des entreprises et instituts de recherche pilotes (cf. SP 2). Cette ontologie et ces différents modèles seront intégrés dans le prototype de service web de compétences.
Ce sous-projet s’articule autour de plusieurs objectifs :
Identifier les scénarios spécifiques d’usage à partir d’entretiens, d'analyse de sites existants de recherche de compétences, de pages web personnelles ou organisationnelles décrivant des compétences ;
Construire des ontologies. Leur construction repose sur l'identification et la structuration des concepts relatifs aux compétences en télécommunications ainsi que de leurs relations; l'élaboration de définitions pour ces concepts et relations ; le recensement des différents termes et des diverses expressions utilisées pour exprimer ces concepts et ces relations.
Sous-Projet 2 : Cartographie des compétences (responsable RODIGE)
Le sous-projet 2 cherche à identifier les conditions à réunir afin que la bonne information soit accessible à la personne concernée au bon moment. Pour ce faire, il élabore les différents modèles économiques et managériaux, qui permettent de décrire les compétences, les acteurs et leurs interactions. De par son rôle d'interface entre les utilisateurs et les concepteurs de l'outil, il a en charge les aspects d'acceptabilité et d'usage du projet. Ce sous projet s’articule autour de trois axes fédérateurs :
La modélisation des interactions entre les entreprises et les institutions de Telecom Valley et des modes de fonctionnement en réseau.
La modélisation des pratiques de partenariat inter-firmes et inter-institutions et l’analyse des besoins de communication des ressources et des compétences que requièrent ces pratiques.
La formalisation des compétences des firmes et des instituts de recherche en vue de leur intégration dans la base de données.
Ses objectifs sont les suivants :
Construire la chaîne de valeur de Telecom Valley en intégrant les trois filières qui la constituent : l'informatique, les télécommunications et la microélectronique.
Construire les scénarios d'usage sur la base d'interviews des principaux utilisateurs appartenant aux acteurs pilotes (Institutionnels Locaux, Firmes, Instituts de Recherche),
Décrire les compétences des firmes et des instituts de recherche présents au sein de Telecom Valley.
Expérimenter et analyser des usages
Sous-Projet 3 : Réalisation informatique d’un service web de compétences (responsable INRIA-Acacia)
Le sous-projet 3 vise à analyser, concevoir, réaliser et évaluer un prototype de service web de compétences. Pour ce faire, le noyau du prototype est le moteur de recherche sémantique Corese développé par le projet Acacia de l’INRIA. Le développement de ce prototype a nécessité l’élaboration de deux versions afin de permettre de diffuser les premiers résultats et d'affiner l’ontologie et les modèles proposés :
La réalisation de la première version du prototype comprend cinq étapes :
L'analyse : état de l'art sur les outils existants de recherche de compétences (scénarios d’usage associés, fonctionnalités, interfaces et architectures); analyse des besoins des utilisateurs potentiels en termes de scénarios (cf. SP1 et SP2), analyse des fonctionnalités et des interfaces ;
La spécification et la conception ;
L’identification et la description des fonctionnalités importantes pour les utilisateurs ;
La spécification et la conception des interfaces ;
La spécification et la conception de l'architecture.
La réalisation du deuxième prototype s'articule autour de trois étapes :
L'analyse et la spécification : analyse des résultats de l'évaluation et ajustement des différents aspects du prototype (scénarios, fonctionnalités, interfaces et architecture), intégration des éléments non pris en compte dans la première version (ex. : fonctionnalités de communication électronique, fonctionnalités de sécurisation…) ;
La conception, la réalisation et l'évaluation ;
La documentation : rédaction d’un rapport présentant le deuxième prototype et la démarche suivie pour le construire et le valider.
Sous-Projet 4 : Evaluation du service web sur la dynamique communautaire (responsable GET)
Le sous-projet 4 vise à examiner l’impact de l’ontologie sur la dynamique communautaire, tant sur les communautés de pratique existantes, que sur l’émergence de nouveaux collectifs. Plus spécifiquement, il vise à examiner attentivement la cohérence induite par la création d’un langage commun et à observer ses impacts sur la coopération.
Sous-Projet 5 : Evaluation de l'outil sur la création de valeur et la dynamique des connaissances au sein d’une communauté (responsable Latapses)
L’objectif de ce sous-projet est de procéder à une évaluation de l’outil et de permettre son amélioration constante. Il repose sur deux sous-objectifs : 
L’analyse de la valeur générée par l’outil en termes de : réduction des coûts, multiplication des partenariats et des échanges entre les firmes de la communauté, recherche adéquate de partenaires institutionnels et production de connaissance.
L’analyse du rôle de l’outil dans la dynamique de création de connaissances au sein de TV.

Ces six sous-projets s'articulent de la façon suivante :
 EMBED ABCFlow Figure 24 : Organisation des sous-projets du projet KMP
En définitive, le projet KMP était la résultante d’une démarche véritablement innovante puisqu’il articulait plusieurs objectifs :
Rendre compte des pratiques de « Knowledge Management » à l'échelle d'un réseau inter-firmes et inter-institutions ;
Analyser les possibilités et opportunités de formalisation des pratiques d'échange et de création de connaissances inter-firmes qui sont essentiellement informelles ;
Concevoir, à partir de l'analyse et de l'anticipation des usages, le média le mieux approprié à ces pratiques.
Pour ce faire, ce projet s’appuyait à la fois sur une véritable coopération pluri-institutionnelle avec la participation de différentes catégories d'acteurs, entreprises industrielles, organismes de recherche, institutionnels locaux qui offrent une multiplication des scénarios d'utilisation et par conséquent, une expérimentation variée des potentialités de l'outil. Il s’appuyait également sur une équipe projet caractérisée par sa pluridisciplinarité puisque constituée d'économistes, de gestionnaires, d'informaticiens et de psychologues / ergonomes comme le résume le schéma suivant.
Économie/GestionIngénierie des connaissancesTechnologie de l'informationAnalyse de la viabilité des nouveaux modes organisationnels

Analyse des échanges informationnels entre les entreprises et des besoins en communication sur les ressources et compétences.

Fondements théoriques de l'approche ressources/compétences, du KM et du travail coopératif au sein de communautés.

Analyse des usages liés à l'introduction d'une nouvelle technologie, approche structurationniste.Formalisation d'ontologie sur:
- le domaine des télécoms,
- les compétences,
- le fonctionnement en réseau,
- la stratégie de communication

Ergonomie des interfaces
Méthode des scénarios

Ingénierie des ressources humaines

Psychologie cognitive
PsycholinguistiqueWeb sémantique
XML, RDF, RDFS

Hypermedia adaptatif
Documents virtuels
Modèles utilisateurs

Graphes conceptuels
RST
Tableau 8 : les différentes compétences dans le projet KMP [rapport RNRT]
Bien évidemment, comme dans tout projet de conception, les équipes concernées ont été amenées à élargir leurs domaines de compétences de façon à répondre à des situations non anticipées initialement. Comme le souligne Midler [1996 : 68] : « l’une des spécificités des situations de conception est l’impossibilité de leur assigner a priori des frontières nettes et stables ».
Nos actions au sein du projet KMP
Étudiante en DEA en Sciences de Gestion (2001-2002), nous étions en contact permanent avec l’équipe de gestion RODIGE, notamment une enseignante qui allait devenir le futur chef du projet KMP, au moment même où émergeait l’idée d’une cartographie des compétences des entreprises de la Telecom Valley. Notre mémoire de DEA s’est alors rapidement centré sur l’analyse des enjeux et limites de la codification des connaissances dans les partenariats entre recherche publique et recherche privée. En orientant notre sujet sur cette problématique, une opportunité de poursuivre nos études en doctorat mais également de faire acte de candidature à une bourse régionale en collaboration avec l’association Telecom Valley, s’offrait à nous. À l’issue de notre DEA et dès obtention de la bourse en novembre 2002, nous avons intégré l’équipe projet et été en charge du scénario 3 intitulé « Rechercher et échanger des informations dans le cadre des coopérations recherche publique – recherche privée ».
Notre intégration au projet après la première boucle de conception 2001-2002 explique, comme nous le verrons dans la section méthodologie, que le scénario 3 apparaisse relativement tardivement dans le processus de conception. Spécifiquement engagés dans le scénario 3, nous avons toutefois, pendant l’année 2003, essentiellement travaillé avec les autres membres de l’équipe à l’élaboration du scénario 1. Il s’agissait surtout de participer activement aux avancées méthodologiques qui seraient à réinvestir dans le scénario 3.
Ainsi, notre rôle a été multiple : en amont, nous avons participé à identifier et comprendre les contours du projet par un dialogue constant avec les membres de l’équipe déjà constituée et les acteurs pilotes (entreprises et instituts de développement régionaux). Plus spécifiquement, notre travail a ensuite consisté d’une part à aider l’équipe projet dans la conception des prototypes et, d’autre part, en parallèle, à clarifier les attentes des acteurs dédiés au scénario générique 3 (recherche des porte-paroles, compréhension du contexte et des pratiques des acteurs) …
Plus précisément, notre implication s’est concentrée autour du sous-projet 0 (coordination et management de projet) et du sous-projet 2 (cartographie des compétences) :
Dans le cadre du sous-projet 0, nous avons été amenés à définir d’une part la méthode de co-conception orientée usage mise en place dans le projet KMP [Pascal, 2005 ; Pascal et Thomas, 2006]. Ce choix de méthode nous a alors conduits (i) à travailler en étroite collaboration avec les acteurs pilotes du projet, notamment des chercheurs, des directeurs de laboratoire ou des personnes appartenant aux services valorisation des organismes de recherche ou d’associations et (ii) à accompagner les trajectoires d’usages de la communauté des utilisateurs au-delà des utilisateurs pilotes et des membres de Telecom Valley (cf. annexe 2 : historique du projet KMP). D’autre part, nous nous sommes attachés à définir une méthodologie de construction des scénarios d’usage [Pascal et Rouby, 2006] et à réaliser ces scénarios, tant au niveau des entreprises que des organismes de recherche (cf. annexes 1.2. et 1.3. : questionnaires pour entretiens semi-directifs). Ces scénarios nous ont permis de définir les spécificités fonctionnelles des scénarios 2 et 3 implémentées dans le prototype 2 et améliorées dans le prototype 3 (démarche itérative de co-conception). Ici, nous avons attaché une grande importance à rédiger des fiches descriptives des organismes de recherche en adéquation avec leurs attentes mais aussi avec les attentes des entreprises afin de pallier au problème de langage commun identifié dans la section 2. Enfin, nous avons participé à une partie des entretiens de cartographie des entreprises et à l’ensemble de ceux des organismes de recherche (cf. annexe 2 : historique du projet KMP), de même qu’au peuplement des ontologies et notamment l’ontologie des ressources scientifiques.
Dans le cadre du sous-projet 2, l’équipe RODIGE a cherché à identifier les conditions à réunir afin de fournir aux acteurs des informations pertinentes facilitant la mise en œuvre de coopérations inter-firmes et inter-institutions. Pour ce faire, il était nécessaire d’élaborer différents modèles managériaux permettant de décrire (i) les acteurs et leurs interactions, (ii) leurs compétences, et (iii) leurs pratiques récurrentes en matière de nouage de partenariats. Trois catégories de modèles ont été ainsi élaborées par l’équipe RODIGE :
Modélisation des interactions entre les entreprises, organismes de recherche et institutions de Telecom Valley et des modes de fonctionnement en réseau (de la chaîne de valeur du réseau télécoms sophipolitain à la chaîne de valeur du cluster télécoms – ontologie des interactions) ;
Modélisation des compétences des firmes et des organismes de recherche en vue de leur intégration dans la solution KMP ;
Modélisation des pratiques partenariales inter-firmes et inter-institutions pour une analyse approfondie des besoins de communication des ressources et compétences que ces pratiques requièrent (méthodologie de construction des scénarios d’usage) ;
Dans ce cadre, notre action a consisté à faire évoluer la modélisation de l’espace commun en intégrant dans un premier temps les facilitateurs, fonctions pilotes et organismes de recherche (modélisation du cluster télécoms), puis dans un second temps, en définissant de façon plus précise les organismes de recherche prenant part au pôle SCS (représentation détaillée du pôle SCS).
Notons enfin que ces différentes actions nous ont conduits, tout au long du processus, à travailler en étroite collaboration avec l’équipe d’informaticiens en charge de la conception du prototype et, par voie de conséquence, qu’elles nous ont amenés à développer un langage commun de l’équipe pluridisciplinaire de co-conception.
3.3.1.5. Les principaux résultats opérationnels 
Les principaux résultats de l’équipe de conception peuvent donc être synthétisés ainsi :
Au niveau de la gestion de projet :
Au-delà de la coordination et du management de projet, le SP0 a permis la mise en place d’une véritable démarche de conception orientée usages qui s’est traduite par : (i) une réelle interdisciplinarité entre les Sciences Sociales et les Sciences de l’Ingénieur ; (ii) une co-conception avec les utilisateurs pilotes ; et (iii) un accompagnement de trajectoires d’usages dans la communauté des utilisateurs au-delà des utilisateurs pilotes et des membres de Telecom Valley.
Au niveau de l’élaboration des ontologies :
Trois grands résultats ont été obtenus :
Les ontologies inter-firmes KMP : l’objectif principal fixé au début du projet KMP a été atteint : il existe aujourd’hui des ontologies permettant aux entreprises et laboratoires de recherche de décrire leurs compétences et de faire des recherches sur ces compétences. Ces ontologies ont été formalisées et intégrées dans le prototype KMP-Corese et le démonstrateur KMP-Scarce. Elles sont structurées autour des modèles définis dans le SP2 (modèle de réseau, modèle de compétences, modèle du domaine ou des ressources mobilisées dans une compétence) présentent l’originalité d’être des ontologies inter-firmes (l’essentiel des ontologies de l’état de l’art étant des ontologies intra-firmes). Les ontologies structurées autour des modèles de tâche, du document et de l’utilisateur, initialement prévues pour un prototype intégrant les aspects hypermédia adaptatif, ont été développées uniquement dans KMP-Scarce. Les ontologies constituent le résultat majeur du SP1.
Différents outils d’administration-animation des ontologies KMP et de la communauté utilisant ces ontologies et participant à leur peuplement. Ces outils sont accompagnés d’un guide de l’administrateur-animateur.
Des éléments de méthodologie de construction et d’évaluation d’ontologies.
Au niveau de la cartographie des compétences :
Trois grands résultats ont été également obtenus :
La représentation de l’espace commun à tous les acteurs : la chaîne de valeur et la modélisation globale du cluster télécoms sophipolitain ont été conçues, produites et validées par tous les utilisateurs pilotes. Au-delà des utilisateurs pilotes, cette représentation a été appropriée par tous les membres de Telecom Valley.
Le repérage et la description des compétences : la modélisation des compétences des firmes et organismes de recherche a été réalisée pour accroître les échanges et combinaisons de connaissances afin de développer les synergies et l’innovation au sein du cluster télécoms. Cette modélisation a permis de structurer le concept de compétence afin d’en réaliser la capture dans la solution KMP.
La méthodologie relative aux scénarios d’usages : une méthodologie originale de construction des scénarios d'usage a ainsi été élaborée. Elle permet de capturer les éléments de contexte qui auront un impact significatif sur les trajectoires d’usage de KMP et propose des modes d’édition, d’interrogation et de réponse conformes et appropriés aux pratiques et logiques d’action des différents utilisateurs.
Au niveau de la conception des prototypes :
Quatre grands résultats sont issus de ce travail :
Une application-test de serveur Web de compétences, KMP-Corese, validée par les utilisateurs pilotes. L’objectif initial, qui était de construire un prototype de serveur Web de compétences avec Corese comme noyau, a été atteint. Ceci constitue le résultat majeur du SP3. Il nous faut souligner que ce qui a été construit avec KMP-Corese n’est pas un prototype de laboratoire mais bien une application-test réaliste, qui n’attend qu’à devenir un produit industriel. Autrement dit, le projet KMP, d’abord projet exploratoire, a pris progressivement le chemin d’un projet pré-compétitif. À l’issue du projet RNRT, KMP-Corese est d’ailleurs entré dans une phase de pré-industrialisation.
Un démonstrateur, KMP-Scarce, montrant l’intérêt des fonctionnalités de composition sémantique pour la gestion des compétences.
Des outils d’administration-développement de KmP-Corese, accompagnés d’un guide de l’administrateur-développeur.
Des éléments de méthodologie d’évaluation ergonomique d’applications à base d’ontologies.
Au niveau de l’évaluation du service web sur la dynamique communautaire : Un benchmark a été réalisé auprès de plusieurs communautés territorialisées (réseau d'entreprises et institutions appartenant à un même espace géographique) s'étant dotées d'un dispositif technologique de type "site web partagé". Il a permis de mettre en avant différents phénomènes de structuration qui s'opèrent autour de ce type d'artefact. Ces mêmes phénomènes ont été observés dans le cadre du projet KMP (correspondant pour autant à un substrat technologique plus élaboré). Ainsi, une grille d'analyse des formes et enjeux de la gouvernance de projets de ce type (indépendamment de leur degré de technicité) a pu être élaborée. La deuxième partie de l'étude a porté sur "l'évaluation" du dispositif KMP : dans sa dimension de construit social, relative aux attributs technologiques de la plateforme et à la pertinence du dispositif par rapport aux scénarii d'usage. Envisagé comme un processus facilitant aussi l'apprentissage des utilisateurs, la démarche empirique d'évaluation a nourri un retour d'analyse sur les modèles qui soutiennent le dispositif technique KMP. Au cœur de l'analyse se trouvait la question des effets (impacts) de la plateforme sur la dynamique communautaire quant aux phénomènes de « verrouillage » économique et cognitif dont ces dispositifs sont porteurs. La portée des modèles de l'artefact KMP a été analysée et confirmée.
Au niveau de l’évaluation de l’outil sur la création de valeur et la dynamique des connaissances au sein d’une communauté (SP5) : le SP5 s’est d’abord focalisé sur l’état de l’art en matière de création de connaissances au sein d’un cluster ainsi que sur les conditions historiques du développement du cluster télécoms sophipolitain. Ces travaux ont ensuite permis de construire, en collaboration avec le SP4, une grille d’analyse permettant d’évaluer la valeur créée par l’introduction du service web de compétences au sein de la communauté sophipolitaine. Enfin, à partir de nombreux entretiens, le SP5 a produit une première évaluation du projet KMP sur la dynamique des connaissances du cluster sophipolitain. L’analyse des entretiens d’évaluation a montré le rôle pivot du processus de codification dans la structuration de la communauté Telecom Valley. Par ailleurs, en participant directement au renforcement des capacités réseau du cluster sophipolitain, le projet KMP a eu un effet positif sur les mécanismes de création de connaissances.
3.3.2. Démarche méthodologique
La démarche de co-conception adoptée dans KMP suppose un dispositif d'interactions riche avec le terrain. Celles-ci se situent à deux niveaux qui se renforcent mutuellement : le dispositif d’interaction et la démarche de connaissance [Hatchuel, 1994].
3.3.2.1. Le dispositif d’interaction
Le dispositif d’interaction s’est organisé autour de sept modalités principales :
Des entretiens exploratoires réalisés auprès des utilisateurs potentiels (entreprises, organismes de développements régionaux et des organismes de recherche). Cette première phase de familiarisation permet notamment de prendre connaissance des objectifs assignés à l’outil (les trois scénarios génériques), des raisons qui motivent son implémentation chez les commanditaires et d’identifier les acteurs clés du projet (cf. annexe 1.1. : questionnaire pour entretiens exploratoires). Au total, 16 entretiens ont été réalisés en 2002, dont 2 auprès d’associations.
Des entretiens semi directifs réalisés auprès des utilisateurs pilotes. Deux types d’entretiens ont été effectués : les premiers avaient pour objectif de recenser et cartographier les compétences des acteurs, les seconds de capturer les pratiques et les logiques d’action récurrentes lors d’opérations de nouage de partenariats ou de développement du territoire (prise d’appui sur la méthode des scénarios d’usage). Deux grilles d’entretiens semi-directifs ont été construites, une première pour les acteurs industriels et une seconde pour les acteurs de la recherche publique (cf. annexes 1.2. et 1.3. : questionnaires pour entretiens semi-directifs).
Des comités ad hoc avec les utilisateurs pilotes. Ces comités servaient de support pour établir des codifications particulières comme par la chaîne de valeur, les ontologies des ressources technologiques, les fiches descriptives des organismes de recherche …
Des comités de pilotage. Ces derniers permettent d’évaluer et de valoriser périodiquement (tous les trois mois) les résultats intermédiaires de l’équipe de recherche auprès des utilisateurs pilotes, étape essentielle à l’implication des utilisateurs, au développement de la légitimité de l’équipe de recherche et de la confiance entre les différents acteurs,
Des entretiens d’évaluation de la solution pour tester en fin de projet les éléments proposés.
Des présentations du projet à diverses entités telles qu’associations, réunions de clubs et associations, directeurs d'entreprises ou encore d'organismes de recherche pour construire le réseau sociotechnique autour de l’innovation.
Des participations à des réunions organisées par les différents acteurs de Sophia Antipolis. La participation à ces réunions nous a notamment permis de nous imprégner et de mieux appréhender le contexte sophipolitain.

Le tableau ci-dessous présente de façon synthétique l’ensemble de ces interactions :
2001-2002200320042005-2006Entretiens exploratoires26 Entretiens semi-directifs : cartographie31 33Entretiens semi-directifs : scénarios d’usage2428Comités ad hoc22302419Comités de pilotagel531Présentations diverses37226Participation à des réunions sophipolitaines10122Évaluation du dispositif129Tableau 9 : Vision synthétique des interactions chercheurs-terrain
De cette manière, la démarche de création de concepts et de connaissances a favorisé l’émergence progressive et la codification, en collaboration avec les acteurs du terrain, de connaissances nouvelles : la chaîne de valeur du cluster sophipolitain, le modèle des compétences et les ontologies des compétences qui ont été les éléments supports de la conception des prototypes… Nous proposons maintenant de présenter de façon plus spécifique la démarche méthodologique que nous avons adoptée pour construire la solution KMP.
3.3.2.2. La démarche de connaissance au sein des boucles de co-conception
Dans le cadre du projet KMP, nous avons réalisé quatre grandes boucles de co-conception :
La boucle n°1 correspond à la période 2001-2002 et s’articule autour du projet RNRT.
La boucle n°2 correspondant à la période 2003 aboutit à l'élaboration, la conception et l'implémentation du prototype d’édition des compétences (prototype P0) et de la solution technique autour du scénario générique 1 (prototype P1).
La boucle n°3 correspondant à la période 2004 s’est focalisée autour des scénarios génériques S2 et S3 donnant naissance au prototype P2.
La boucle n°4 pour la période 2005-2006 a fait entrer le projet dans une phase de pré-industrialisation grâce au concours du conseil régional et de la DRIRE (prototype P3)
La démarche de co-conception mise en place dans le cadre du projet KMP peut alors être représentée comme suit :

Figure 24 : Les boucles de co-conception du projet KMP
Plus spécifiquement, la démarche de connaissance mise en place dans le projet KMP pour construire ces boucles de co-conception s’est appuyée, comme nous l’avons vu dans la section 3.2.3.2, sur les apports de Romme et Endenburg [ibid.]. Nous proposons ici d’effectuer une analyse synthétique de chacune de ces boucles en nous attachant tout particulièrement à mettre en évidence la démarche de connaissance poursuivie (une analyse complète des boucles de co-conception sera effectuée dans la section 5.2. de cette recherche). Science des organisationsPrincipes de constructionRègles de designDesigns organisationnelsImplémentation et expérimentationCréation de connaissances
- La création de connaissances est un processus social d’échange et de combinaison de connaissances - Repérer et décrire les compétences des différents acteurs afin de faciliter l’échange et la combinaison de connaissances

PROJET RNRT


Cartographie des acteurs et de leurs compétences
Modélisation des relations qui lient les acteurs


Service web sémantique à base d’ontologies


3 scénarios d’usage génériques

Identification des usagers pilotes et des porte-paroles légitimes (tant au niveau des entreprises que de la recherche publique) 

Expérimentation

- Evaluation du projet RNRT

- Labellisation RNRT (mai 2002)



Evaluation du projet par l’Assemblée Générale de la Telecom Valley

- Présentation du projet lors d’une AG de TV (mars 2002)
- Présentation à la journée des clubs de Sophia Antipolis (septembre 2002)
- Difficulté à trouver des porte-paroles au sein de la recherche publiqueMécanismes de création de connaissancesSystèmes d’innovation et de recherche
- Le choix des partenaires dépend de différentes variables telles la notoriété, les compétences et ressources …
- Le type de coopération influence la création de connaissances- Modéliser les acteurs et leurs jeux d’intérêts (inhérents à chaque communauté)

- Modéliser les pratiques de coopération mises en jeu au sein du système d’innovation et de recherche- Les partenariats comme source de variété et leviers d’innovation- La recherche publique comme source de variété particulièreCapital social et communauté
- Le capital social et les communautés renforcent la dynamique de création de connaissances
- L’outil comme support à la création d’un capital socialVecteurs de création de connaissances au sein d’un réseauUsages
- Prise en compte des usages dès la conception- Prendre en compte les dynamiques sociales émergentes

- Co-construction de la solution avec les usagers pilotes3 approches des usages :
La sociologie
Les sciences cognitives
Les sciences de gestionTableau 10 : Boucles de co-conception n°1 : 2001-2002 La première boucle de co-conception marque le passage de l’idée au projet en tant que tel. Plus spécifiquement, cette boucle s’est construite autour d’une demande des institutionnels locaux d’élaborer une cartographie des compétences du site sophipolitain pour favoriser la dynamique locale d’innovation. Au cours de cette première boucle, l’équipe de conception a donc puisé dans les sciences des organisations pour définir des principes de construction dans le but de conduire le projet de cartographie des compétences. La thématique des compétences a notamment été approfondie en prenant en considération ce besoin fondamental d’innovation. Finalement, quatre thèmes nous ont semblé porteurs : la création de connaissances, les systèmes d’innovation et de recherche, le capital social et les communautés, et enfin les usages. Bien évidemment, les principes de construction issus de ces thèmes ont été, tout au long de l’état d’avancement du projet c’est-à-dire des boucles de co-conception, affinés voir complétés par d’autres propositions en fonction des nombreuses itérations entre la théorie et le terrain.
Les règles de design représentent des indications « orientées solution » pour le processus de conception, c’est-à-dire pour concevoir l’artefact support de l’action. Ces règles, confrontées aux interactions sur le terrain c’est-à-dire aux premiers entretiens exploratoires (26 entretiens, cf. annexe 2.1. : historique du projet KMP, année 2001-2002), nous ont conduit à concevoir des designs organisationnels pertinents par rapport aux acteurs concernés. Ces designs sont les suivants : la cartographie des acteurs et de leurs compétences basée sur un service web sémantique à base d’ontologies ; la modélisation des relations qui lient les acteurs ; les scénarios d’usage génériques ; l’identification des usagers pilotes et porte-paroles légitimes (tant au niveau des entreprises que de la recherche publique).
Les résultats de cette première boucle ont été matérialisés dans la réponse à l’appel d’offre RNRT. Sa labellisation en mai 2002 a permis son évaluation et lui a conféré une forte légitimité au sein de l’association Telecom Valley. Science des organisationsPrincipes de constructionRègles de designDesigns organisationnelsImplémentation et expérimentationCréation de connaissances- Modèles de compétences- Repérer et décrire les compétences à partir de 4 items clés : action, délivrable, ressources, système d’offre.
- Co-construire les ontologies avec les acteurs et rechercher des accords sur les niveaux abstraitsPrototypes P0 et P1

Ontologies des compétences

Création de la chaîne de valeur (espace commun de la communauté industrielle)

Fonctionnalités de l’édition des compétences

Fonctionnalités du scénario 1 (avoir et donner une visibilité générale de la communauté Télécom Valley)
Implémentation des prototypes P0 et P1

Mars 2003 : mise en situation réelle du prototype d’édition des compétences
Décembre 2003 : mise en situation réelle du prototype de requête du scénario 1
En décembre 2003 : 73 compétences inscrites sur 9 pilotes
Évaluation

5 comités de pilotage en 2003 :
12 février
3 avril
26 juin
25 septembre
18 décembre

- Rôle des objets intermédiaires et frontières

- Importance des stratégies collectives- Management des compétences (RH-stratégie)
- Enjeux et limites de la codification- Non neutralité de la codification sur la structuration du collectif et sur la création de connaissancesSystèmes d’innovation et de recherche- La sphère de la recherche publique et celle de la recherche privée apparaissent comme deux communautés qui diffèrent dans leurs systèmes de valeur et de motivations.
- Importance des proximités (cognitives, sociales …) sur les processus de création de connaissances- Identifier les stratégies de communication et de développement :
individuelles
collectivesSystème d’innovation et de recherche français
Secteur télécoms
Mises en œuvre des partenariats recherche publique / recherche privéeCapital social et communauté- Les proximités renforcent le développement du capital social
- Importance de la dimension identitaire sur le processus de création de connaissances- Représenter l’espace commun (identité)
- Utiliser le processus de codification pour jouer sur les proximités- Capital social comme support de développement du capital intellectuelUsages- Séparation du monde des concepteurs et de celui des usagers
- Formalisation des boucles de co-conception qui soutiennent le projet
- Construction du réseau sociotechnique apte à recevoir l’innovation
- Co-évolution de la conception et des usages- Introduire des pilotes dans les boucles de co-conception
- Élaborer en croisant les variables des théories de la cognition distribuée et de la structuration
- Trouver des porte-paroles dans les trajectoires d’usage
- Mettre l’outil en situation d’usage réelArticulation de trois courants compatibles et complémentaires :
Cognition distribuée
Théorie de la structuration
Théorie de la traductionTableau 11 : Boucles de co-conception n°2 : 2003 La boucle de co-conception relative à l’année 2003 constitue un affinement notable des propositions issues de la boucle précédente. En effet, les premiers entretiens exploratoires et comités de pilotage ont permis de valider les éléments théoriques avancés en 2002. Dès lors, un travail important a été effectué sur le concept même de compétences par deux chercheurs de notre équipe. Ce travail s’est finalisé par un modèle permettant la description des acteurs et de leurs compétences et donc la création du prototype d’édition des compétences de KMP (prototype P0). Par ailleurs, l’élaboration d’une méthodologie des scénarios d’usage articulant les variables des théories de la cognition distribuée et de la structuration a permis de construire les fonctionnalités relatives au scénario d’usage générique 1 « Avoir et donner une visibilité générale de Telecom Valley » et donc le prototype de requête P1.
Au-delà, une analyse approfondie des quatre thématiques identifiées dans la première boucle nous a conduits à mettre en évidence :
la non neutralité de la codification et donc la nécessité de co-construire les ontologies ; 
l’appartenance de la recherche publique et de la recherche privée à des communautés distinctes et donc le besoin d’identifier les stratégies de communication et de développement inhérentes à ces communautés ;
l’importance des proximités et de la dimension identitaire pour renforcer ensuite la capital social et par voie de conséquence la création de connaissances ce qui nous a amenés à représenter l’espace commun et à utiliser le processus de codification pour jouer sur les proximités ;
l’articulation de trois courants de la structuration, de la cognition distribuée et du CSI nous ont conduits, au-delà de la méthodologie des scénarios d’usage, à mieux formaliser le processus de conception en introduisant des pilotes et en identifiant des porte-paroles.
Les résultats de cette boucle sont cristallisés dans le prototype P0-P1 du projet KMP qui intègre notamment la première édition de la chaîne de valeur de la communauté sophipolitaine (représentation de la communauté industrielle) et les fonctionnalités du scénario d’usage générique 1. Nous nous sommes beaucoup investis dans le développement de ce premier prototype, menant en parallèle les premiers entretiens exploratoires spécifiques au scénario 3.
Le prototype P1 a été mis en situation d’usage réel dès mars 2003 sur un serveur de l’INRIA et on pouvait compter en décembre, 73 compétences inscrites pour 9 usagers pilotes. Ce prototype a fait l’objet de 5 évaluations au cours de l’année, chacune conduisant à la validation ou modification du design organisationnel proposé. Le résultat le plus probant de cette boucle concerne la forte appropriation de la chaîne de valeur par les usagers pilotes et au-delà par l’ensemble des acteurs de la communauté Telecom Valley. Ce résultat nous a ainsi conduits à nous interroger sur le rôle des objets intermédiaires et frontières dans le processus de conception ainsi qu’à mettre en exergue l’importance des stratégies collectives dans le cluster sophipolitain.

Science des organisationsPrincipes de constructionRègles de designDesigns organisationnelsImplémentation et expérimentationCréation de connaissances
L’ontologie comme construction finalisée en constante évolution au sein d’une communauté
Conception sociosémantique de l’ontologieConstruire progressivement les ontologies avec les acteurs du terrain :
Recherche d’accord sur les niveaux abstraits
Peuplement de l’ontologie concomitant au peuplement des compétences

Prototype P2

Représentation élargie du cluster télécoms sophipolitain intégrant les facilitateurs, fonctions support et la recherche publique

Enrichissement des fonctionnalités du scénario 1
Fonctionnalités des scénarios 2 (Rechercher et échanger des informations dans le cadre des coopérations inter-entreprises) et 3 (Rechercher et échanger des informations dans le cadre des coopérations recherche publique – recherche privée) 
Démonstration et implémentation du prototype P2

Mars 2004 : prototype d’édition des scénarios 2 et 3, amélioration du scénario 1
En novembre 2004 : 92 compétences inscrites pour 11 entreprises pilotes et 53 compétences pour 12 équipes de recherche pilotes.

Évaluation

3 comités de pilotage en 2004 :
5 mars
29 juin
9 novembre

- Décision de TV de devenir le porteur du projet dans sa phase d’industrialisation
- Difficulté des acteurs de la recherche publique à s’identifier à l’espace commun et à s’approprier le modèle des compétences- Enjeux de la codificationSystèmes d’innovation et de rechercheIdentification de différents types de combinaison
Identification des leviers et des freins à la combinaison des connaissances entre recherche publique et recherche privéeCalculer les complémentarité et similarités des compétences : chaînes de valeur et pôles de compétences (stratégies collectives)IdemCapital social et communautéInfluence des différentes dimensions du capital social sur la création de connaissancesUtiliser le processus de codification pour développer les trois dimensions du capital social au sein du cluster télécoms
IdemUsages
Rôle des objets intermédiaires dans les boucles de co-conception

Rôle des objets frontières dans la co-évolution de la conception et des usages

Construire des objets intermédiaires
Construire des objets frontières



IdemTableau 12 : Boucles de co-conception n°3 : 2004 L’année 2004 est véritablement l’année charnière dans le cadre de notre recherche puisqu’elle correspond à l’implémentation du prototype P2 relatif aux scénarios génériques 2, « rechercher et échanger des informations dans le cadre des coopérations inter-entreprises » et 3 « rechercher et échanger des informations dans le cadre des coopérations recherche publique-recherche privée ». Cette boucle de co-conception prend ainsi appui sur les enseignements des boucles précédentes afin de préciser les principes de construction notamment en ce qui concerne les processus de création de connaissances par les partenariats entre recherche publique et recherche privée. Dans cette perspective, une nouvelle représentation de l’espace commun est proposée intègrant non seulement la recherche publique mais également les facilitateurs et les fonctions supports du cluster sophipolitain. De même, l’importance toujours aussi cruciale des stratégies collectives nous a amenés à conduire de nouvelles réflexions sur les modes de combinaison des connaissances des acteurs dans des systèmes d’innovation et de recherche. Cette réflexion nous a amenés à définir les concepts de similarité et de complémentarité des compétences, concepts qui autorisent l’identification de chaînes de valeur spécifiques et de pôles de compétences. Enfin, nous avons reconsidéré le concept de codification et ces enjeux : ceci a révélé d’une part l’importance de la construction sociosémantique des ontologies et la nécessité de construire progressivement les ontologies avec les acteurs du terrain ; d’autre part, ces analyses ont mis en évidence l’importance des processus de codification sur les trois dimensions du capital social.
Finalement, les résultats de cette boucle, instrumentalisés via le prototype P2, ont été implémentés en mars 2004 et évalués au cours des 3 comités de pilotage. L’année 2004 s’est concrétisée par la cartographie de plus de 160 compétences, à la fois des entreprises et des équipes de recherche pilotes. Notons ici que la construction d’objets frontières et d’objets intermédiaires a été essentielle dans l’intéressement des usagers à la solution et donc dans la réussite de cette boucle de co-conception. Cependant, cette réussite doit être contrastée. En effet, fin 2004, nous pouvons véritablement parler d’une appropriation positive de la solution par les acteurs industriels qui souhaitent devenir porteurs du projet dans sa phase d’industrialisation. En revanche, nous restons dans le cadre d’une appropriation en pointillés pour la recherche publique dont les acteurs ne s’identifient pas à la représentation de l’espace commun et s’approprient difficilement le modèle des compétences.

Science des organisationsPrincipes de constructionRègles de designDesigns organisationnelsImplémentation et expérimentationCréation de connaissances


Idem
Enrichir le modèle des compétences afin de l’adapter aux systèmes de signification de la recherche publique



Prototype P3

Nouvelle représentation de l’espace commun : pôle SCS

Enrichissement du modèle des compétences (item système d’offre)

Enrichissement et simplification des fonctionnalités des scénarios 1, 2 et 3




Démonstration et implémentation du prototype P3

Évaluation

25/01/05 : comité de pilotage et démonstration à l’ensemble des membres de Télécom Valley
21/03/05 : Présentation des résultats du Projet KMP et des perspectives pour 2005/2006 à l’Assemblée Générale de Telecom Valley
29/05/05 : SCS Academic Research Forum


IdemSystèmes d’innovation et de recherche
Opportunités du pôle Solutions Communicantes Sécurisées (SCS) –facteurs d’incitation dans les partenariats recherche publique – recherche privée

Utiliser la création du pôle pour proposer une nouvelle représentation de l’espace commun qui intègre mieux la recherche publique- Rôle des opportunités institutionnellesCapital social et communauté

Idem

IdemIdemUsages
- Élaboration d’une méthodologie d’implémentation de la solution au pôle SCS voir à d’autres pôles
- Identification de nouveaux acteurs dans les boucles de co-conception
- Identification de nouveaux porte-paroles légitimes
Co-construire l’espace commun
Créer des communautés d’expert pour la co-construction des ontologies
Co-construire le réseau sociotechnique
Adapter la présentation de la solution en fonction des stratégies privilégiées par les différents acteurs

- Du prototype à la solution industrielle : passer d’une logique de conception à une logique d’implémentationTableau 13 : Boucles de co-conception n°4 : 2005-2006 La dernière boucle de co-conception se distingue des précédentes dans la mesure où elle ne porte plus sur la phase de prototype dans le cadre du financement RNRT mais sur l’industrialisation de la solution, portée par les acteurs de la communauté Telecom Valley. Ceci explique ainsi que certains thèmes, déjà approfondis dans les boucles précédentes, ne soient pas retravaillés ici.
Cette boucle est également singulière car elle s’initie dans le même temps que la politique en France des pôles de compétitivité. Dès lors, la volonté d’industrialisation, couplée au lancement des politiques de pôles de compétitivité et des problèmes perçus au niveau de la recherche publique nous ont incités à élargir le réseau sociotechnique en intégrant davantage la recherche publique. Pour ce faire, nous avons retravaillé la représentation de l’espace commun dans KMP en intégrant les opportunités du pôle.
Ces deux années se sont donc concrétisées par une simplification et un enrichissement des trois scénarios génériques identifiés au lancement du projet et par une nouvelle version, totalement adaptée au pôle de compétitivité, de la représentation de l’espace commun. Ces éléments ont également été accompagnés par l’identification de règles de design pour faire évoluer le prototype en solution, règle prenant la forme de recommandations pour l’implémentation future de cette solution : créer des communautés d’expert pour co-construire les ontologies, co-construire le réseau sociotechnique, adapter la présentation de la solution en fonction des stratégies privilégiées par les acteurs.
Ces principaux résultats et les nouveaux objets frontières concomitants ont été dans un premier temps implémentés dans le prototype P3 puis, dans un second temps, évalués (i) dans le cadre du dernier comité de pilotage de KMP, (ii) lors de l’assemblée générale de l’association Telecom Valley et enfin (iii) lors d’une rencontre organisée par le pôle SCS dont l’objectif était de faire se rencontrer acteurs de la sphère privée et de la sphère publique.

En conclusion, l’expérimentation KMP s’est articulée autour de quatre boucles itératives de co-conception et d’appropriation prenant appui sur une véritable ‘méthodologie scientifique’ de conception. Au terme de cette description, il nous semble important de nous interroger sur le champ de validité de nos résultats.
3.3.3. La question de la validité des résultats de la recherche
Comme le souligne Thiétart [1999] dans son ouvrage sur les méthodes de recherche en management, tout chercheur se doit de réfléchir, au cours et à l’issue de son travail de recherche, à la validité de celui-ci. Ce questionnement recouvre plus spécifiquement deux préoccupations majeures : celle qui consiste d’une part à s’assurer de la pertinence et de la rigueur des résultats, et, d’autre part, celle qui consiste à évaluer le niveau de généralisation de ces résultats.
3.3.3.1. Validité du construit ou fiabilité de la recherche
Dans le cadre des méthodes de recherche intervention, la question de la validité du construit est fondamentale notamment parce que ces démarches font souvent l’objet d’inquiétudes quant à la légitimité des connaissances produites [Allard-Poesi et Perret, 2003]. Nous avons alors souhaité renforcer la scientificité de cette méthode en intégrant aux approches traditionnelles françaises de recherche intervention, celle du design scientifique de Romme et Endenburg [2006] (cf. § 3.2.2.2.). Dans cette perspective, la conception d’une solution (sous la forme d’un modèle ou d’un artefact) est au cœur de l’analyse et apparaît comme un véritable médiateur entre la théorie et le terrain. En effet, la théorie n’est pas directement éprouvée dans la pratique, elle l’est par le biais du modèle qui en découle (principes de construction et règles de design). Cette méthode s’apparente alors aux approches dites de conception sémantique telles qu’analysées par McKelvey [2002] qui mettent en évidence le rôle fondamental de la modélisation, étape essentielle et indispensable entre la construction théorique et la validation empirique [Kaminska-Labbé et Thomas, 2007].
Selon McKelvey [2002], la conception sémantique se définie en opposition à l’axiomatisation des approches positivistes et argumente en faveur d’une cohérence herméneutique des théories. Dans cette conception, « la tâche d’une théorie est de représenter la dynamique complète des variables qui définissent le phénomène ainsi que ses différentes phases de transition » [Kaminska-Labbé et Thomas, 2007 : 6]. La réduction axiomatique n’est pas requise et il est possible de tolérer plusieurs théories et plusieurs modèles pour décrire un même phénomène [McKelvey, 2002]. En revanche, il n’est pas envisageable de mettre directement la théorie à l’épreuve du réel. Dès lors, les phénomènes doivent être modélisés et le rôle des scientifiques consiste à tester l’adéquation du modèle à décrire les comportements réels à travers différentes procédures. Dans cette perspective, théorie, modèle et terrain sont perçus comme des entités indépendantes : les modèles sont issus des théories existantes et leurs résultats servent à valider, modifier ou enrichir les théories.
La validité du construit de la recherche est alors assurée à deux niveaux : par une adéquation analytique d’une part et par une adéquation ontologique d’autre part. Elle peut être représentée comme suit :


Figure 25 : La conception sémantique
Dans le cadre des recherches interventions, ce sont des modèles particuliers qui sont produits, à savoir des designs qui modélisent des situations qui n’existent pas encore. Dans cette optique, nous soutenons, à l’instar de Kaminska-Labbé et Sachs [2006], que design et modèles sont identiques. Dès lors, l’articulation de la conception sémantique de McKelvey et de l’approche scientifique de la conception de Romme et Endenburg peut être représentée comme suit :

Figure 26 : Conception sémantique et approche scientifique de la conception
Ici, il existe une différence notable entre la conception sémantique de McKelvey et l’approche scientifique de Romme et Endenburg. Elle tient au fait que la première s’appuie essentiellement sur une théorie pour expliquer une classe de phénomènes tandis que l’approche design requiert de multiples théories pour construire son modèle. Dès lors, l’adéquation analytique et l’adéquation ontologique dans une approche design peuvent être assurées comme suit :
Adéquation analytique : elle se définit comme l’adéquation entre la théorie et le modèle. Dans une approche design, nous avons vu que le modèle était la résultante d’un ensemble de théories. De fait, s’assurer de l’adéquation analytique entre les multiples théories et le modèle ou design consiste à s’assurer de la compatibilité des théories entre elles. Tel était le but assigné aux deux premiers chapitres de cette recherche tant dans la recherche d’une meilleure appréhension d’une démarche usage (chapitre 1) que des mécanismes de création de connaissances dans les partenariats recherche publique – recherche privée (chapitre 2). Au-delà, les présentations diverses de notre cadre théorique lors de conférences avec nos pairs ont joué un rôle primordial puisqu’elles nous ont permis de vérifier et d’éviter les incompatibilités éventuelles entre les théories et donc de valider le couplage théorique proposé. Cette validation par les pairs a également été renforcée (1) par de nombreuses réunions au sein de l’équipe opérationnelle qui réunissaient d’autres chercheurs en gestion mais aussi en économie et en informatique (essentielles pour définir la méthode des scénarios), (2) par les présentations du projet au laboratoire des usages de Nice Sophia Antipolis.
Adéquation ontologique : elle se définit quant à elle comme la capacité d’un modèle à représenter les phénomènes du monde réel dans les limites du champ théorique sur lequel il s’appuie. En d’autres termes, il s’agit de s’assurer que le modèle élaboré est compatible avec la vision de la réalité construite par le chercheur. Dans le cadre de cette étude, la spécificité de notre terrain est présente à plusieurs niveaux : le choix d’étudier les pratiques de partenariats entre recherche publique et recherche privée nous conduit d’emblée sur des phénomènes sociaux de nature fondamentalement complexes ; ce sujet d’étude implique également de prendre en considération la multitude des acteurs intervenant dans ce cadre. Ces caractéristiques (complexité, multi-acteurs) nous ont alors conduits à construire un modèle qui autorise et prenne en considération les phénomènes d’émergence, laissant une place importante à la construction de sens dans et par l’action mais aussi dans lequel l’intentionnalité est majeure. Ces choix nous permettent donc d’assurer de l’adéquation ontologique de notre recherche c’est-à-dire de l’adéquation de notre modèle à notre intervention sur le terrain. Au-delà, assurer l’adéquation ontologique consiste à tester le lien entre le modèle et le phénomène : ceci renvoie à vérifier la validité interne de la recherche, validité que nous analyserons par la suite (cf. § 3.3.3.2.).
Ainsi, la validité du construit de notre recherche, et plus généralement des recherches interventions, est assurée par les deux formes d’adéquation présentées précédemment. En regard de la définition des méthodologies de recherche intervention (cf. § 4.1.3.1.), il nous semble que s’assurer de la validité du construit nécessite également de vérifier que les principes et règles méthodologiques de la recherche intervention soient respectés. Dans le cadre de cette recherche, ils peuvent être énoncés de la façon suivante :
Selon le principe de rationalité accrue, le rôle du chercheur consiste en la mise en compatibilité de relations et de connaissances nouvelles. Ici, ce principe est atteint grâce à la démarche scientifique du design.
Respecter le principe d’inachèvement implique de ne pas privilégier, par avance, l’avis d’un acteur du terrain sur la démarche ou l’aboutissement de la recherche. Nous avons scrupuleusement veillé à respecter ce principe en adoptant une démarche de co-conception en boucles itératives qui s’appuie sur un processus d’adoption-adaptation de l’ensemble des acteurs concernés. Nous avons également veillé à confronter cette démarche avec celle d’autres chercheurs et praticiens dans le but d’éviter toute subjectivité abusive.
L’adéquation au principe d’inachèvement nous a de fait conduits à respecter les principes de scientificité et d’isonomie qui imposent respectivement (i) au chercheur d’adopter en permanence une attitude critique sur les faits et les théories véhiculées et de s’interroger tout au long de l’intervention sur les conditions de validation des savoirs mobilisés ; (ii) d’appliquer cet effort de compréhension à tous les acteurs concernés. En effet, les nombreuses confrontations d’idées avec nos pairs lors de présentation de notre cadre théorique et du projet KMP et le respect de la démarche scientifique de Romme et Endenburg nous ont assuré le recul théorique nécessaire au principe de scientificité. Par ailleurs, le choix retenu dans ce projet de travailler en collaboration avec des usagers pilotes appartenant à différentes institutions, donc de différents contextes et avec des stratégies variées, nous ont amenés à prendre en considération la multitude des acteurs et à ne pas en privilégier certains.
Selon le principe des niveaux d’interaction, l’essence même de la recherche intervention consiste en l’interaction répétée entre le chercheur intervenant et les acteurs du terrain qui se situent à deux niveaux qui se renforcent mutuellement : le dispositif d’intervention et la démarche de connaissances. Dans le cadre du projet KMP, la démarche de connaissance s’est construite par des confrontations itératives entre les savoirs de l’intervenant (théories managériales des compétences, relations inter-firmes - know what, know how, know why - …) et ceux des acteurs concernés. Cette démarche a ainsi croisé des approches top down et bottom up et favorisé l’émergence progressive, en collaboration avec les acteurs du terrain, de connaissances nouvelles : chaîne de valeur du cluster sophipolitain, nouvelle codification des compétences, ontologies … Par ailleurs la confrontation régulière de nos résultats avec les membres du projet (Latapses et Telecom Paris), pas directement impliqués dans l étude terrain, facilite la prise de recul et la clarification des méthodologies employées, satisfaisant ainsi aux critères de distanciation et d objectivation [ðPlane, 2000]ð. En particulier, les méthodes de conception de solutions techniques et de construction des scénarios d usage que nous proposons ont été spécifiquement présentées et argumentées à l occasion d un séminaire spécialement consacré au projet KMP au sein du Laboratoire des Usages de l'Université de Nice Sophia Antipolis (16/04/2004). Ce séminaire réunissait entre autres, des membres de l’équipe projet KMP ainsi que deux professeurs, l’un spécialiste des usages - Serge Proulx, directeur du Groupe de Recherche sur les usages et cultures Médiatiques (GRM) et directeur du Laboratoire sur la Communication Médiatisée par Ordinateur (LabCMO) – et l’autre spécialiste de la cognition distribuée - Bernard Conein, Professeur en sociologie et en communication à l'Université de Nice Sophia Antipolis. La méthode a également fait l’objet d’une présentation lors de l’évaluation scientifique du projet par le Ministère de la Recherche et a été débattue avec un expert du Ministère lui-même activement impliqué dans des projets d’implémentation d’outils TIC.
Le principe d’investigation prospective stipule que la spécificité des recherches interventions tient à leur finalité, à savoir produire des transformations sur l’organisation. Nous verrons dans le chapitre 4 que le projet KMP a conduit à de nombreuses transformations dans le cadre du cluster télécoms sophipolitain avec notamment des modifications dans les stratégies et modes de communication retenus par les acteurs, la structuration du pôle …
Selon le principe de conception, le chercheur doit rapidement dépasser la phase des entretiens afin d’intervenir au plus vite par la conception, puis la mise en œuvre d’outils dans l’organisation. Dans le cadre du projet, des artefacts ont été disponibles pour les acteurs du terrain dès l’année 2002 (chaîne de valeur), puis dès Mars 2003 (prototype 0 d’édition des compétences) c’est-à-dire dès la première année du projet financée par le RNRT.
Enfin, le principe de libre circulation entre niveaux théoriques fait lui aussi référence à la scientificité des résultats par une démarche en boucles de raisonnement. Comme nous l’avons précédemment montré, le projet KMP s’appuie à la fois sur une démarche en boucles itératives de co-conception et sur les apports de l’approche scientifique du design qui assurent le respect de ce dernier principe.
3.3.3.2. Validité interne et validité externe
La validité interne consiste à « s’assurer de la pertinence et de la cohérence interne des résultats générés par l’étude » [Drucker-Godard et al., 1999 : 272]. Dans le cas de notre recherche, nous avons choisi de nous appuyer sur la démarche scientifique du design et plus généralement sur les démarches de recherche intervention qui, comme nous l’avons précédemment montré, s’appuient sur l’épistémologie sous-jacente du pragmatisme. Dès lors, dans ce type de recherche, la nature de la connaissance produite est au service de l’action et la confrontation avec la réalité à travers l’action constitue la principale source de preuve. En d’autres termes, dans l’épistémologie pragmatiste, la question posée est d’emblée celle de la validation des énoncés scientifiques par leur confrontation à l’expérience. Le doute du pragmatiste concerne donc la robustesse d’une idée ou d’une hypothèse devant une mise à l’épreuve objective et publique dans le champ expérimental. Ici, action et connaissance sont indissociables et ce qui caractérise l’erreur, c'est l’échec. En conséquence, la validité interne de la recherche est atteinte par la réussite du modèle implémenté ce qui, comme nous le verrons dans le cas de KMP, a largement été atteint.
La validité interne dépend également des critères d’acceptation interne et de cohérence interne. Ceux-ci ont été assurés par différents moyens : (i) la participation des utilisateurs pilotes au processus de co-conception ; (ii) la validation des étapes de conception et d’avancement des prototypes par les Comités de Pilotage successifs ; (iii) les réunions de présentation et de démonstration du projet KMP qui ont permis à des acteurs à s’intéresser au développement du projet puis, à se l’approprier. Notons une fois encore que les processus de co-conception entre scientifiques et praticiens offrent une protection contre la subjectivité du chercheur, enrichissent le travail en ouvrant de nouvelles perspectives et par là même accroissent le degré de cohérence de l’analyse.
La validité externe concerne quant à elle la généralisation des résultats. Elle cherche à établir le domaine dans lequel les résultats obtenus peuvent être généralisés. Dans le cadre des recherches interventions, comme dans celui des études de cas, la généralisation des résultats est limitée. En effet, dans les approches design, nous avons montré qu’un même ensemble théorique pouvait conduire à des modèles différents et, au-delà, que des mêmes modèles appliqués à des terrains différents pouvaient conduire à de multiples designs. Dans ce cadre, la généralisation paraît difficile. Toutefois, comme le souligne David [2004], le respect de la libre circulation entre niveaux théoriques (principe analysé dans la validité du construit), mais aussi la description détaillée du cas sont des éléments de généralisation. Or, ceux-ci ont largement été appliqués dans le cadre de notre étude.
Notons toutefois que les résultats de notre recherche pourraient cependant s’enrichir soit en comparant le modèle créé à d’autres qui se situerait dans le même paradigme ou encore en implémentant ce même modèle à d’autres cas, par exemple à d’autres pôles de compétitivité.
Nous retiendrons pour finir la conclusion de David [2004] quant au problème de la généralisation de cas unique, et qui font, une fois encore, échos à la spécificité des sciences de gestion comme sciences de conception :
« Comme sciences de conception, les sciences de gestion ont nécessairement un rapport spécifique à la généralisation : si un modèle de management nouveau est découvert ou inventé par un chercheur, par une organisation, ou par un chercheur et une organisation en collaboration […], et si la recherche se déroule précisément à ces moments clés de découverte, que signifie « généraliser » lorsque le cas est unique parce que le premier du genre, et que le seul moyen de le comprendre est d’inventer des concepts et des catégories inédits ? La généralisation la plus élevée n’est-elle pas atteinte lorsque de nouvelles théories permettent de transformer notre regard général sur les choses ? Le management n’est-il pas alors affaire de modèles d’action collective, modèles que le chercheur contribue à inventer ou auxquels il sait donner une valeur universelle ? »
[David, 2004 : 18-19]
Conclusion
L’analyse des démarches classiques de conception ouvre aujourd’hui la voie à l’intégration croissante des usagers dès le début de la conception. En revanche, même si les démarches de conception centrées utilisateurs ou encore les démarches de conception participative apparaissent comme une première solution, elles n’intègrent pas véritablement les usagers comme co-concepteurs à part entière.
Notre volonté d’accroître la participation des usagers et de prendre en compte la diversité des acteurs inhérente au contexte de notre recherche, nous a alors conduits vers les auteurs du CSI. Parce qu’elle propose ici des éléments tangibles de construction d’un réseau sociotechnique apte à recevoir l’innovation, la théorie de la traduction est apparue comme un ‘point de passage obligé’.
Enfin, parce que notre orientation usage nous pousse à attacher une importance toute particulière au contexte pertinent dans lequel l’usage futur de l’outil va se construire, nous avons proposé un détour utile par la théorie de la structuration. En définitive, le cadre théorique que nous avons proposé vise à instrumenter davantage le processus de conception afin de donner à chacun des acteurs des outils qui lui permettent de guider son activité au cours de ce processus.
La démarche de co-conception que nous proposons est une étape nécessaire même indispensable mais non suffisante. En effet, si elle permet de jouer sur certaines conditions préalables à l’échange et à la combinaison des connaissances, elle ne permet toutefois pas de prendre en compte la totalité des exigences qui vont garantir le succès de la dynamique des connaissances. Dans les sections 2.1. et 2.2., nous avons respectivement analysé les mécanismes de création de connaissances et les partenariats entre recherche publique et recherche privée. Ces analyses théoriques nous permettent d’ores et déjà de mettre en évidence (i) les variables que la solution TIC peut optimiser et (ii) celles sur lesquelles elle ne pourra pas jouer :
L’action de l’outil sur la création de connaissances par la mise en œuvre de partenariats entre recherche publique et recherche privée peut être anticipée à de multiples niveaux :
Sur les choix des partenaires d’une part : en décrivant les compétences des acteurs, mais aussi leurs précédents partenariats ou encore en faisant référence à leurs travaux (dans le cas des acteurs de la recherche publique notamment) l’outil pourrait aider à l’optimisation du choix des partenaires : il pourrait ainsi aider à la visibilité des acteurs et à la mise en évidence de leur notoriété scientifique, à révéler leur compatibilité, leurs liens dans des réseaux (proximité sociale) …
Sur les variables du capital social d’autre part, l’outil pourrait avoir un effet positif sur ses dimensions structurelles, relationnelles et cognitives.
Pour la dimension structurelle, l’outil permettrait, par l’identification de nouveaux contacts et les facilités de mise en rapport de ces contacts, de développer les opportunités d’échange et de combinaison. Il autoriserait au-delà une meilleure anticipation de la valeur créée en fournissant des indications précises sur les compétences techniques des différents partenaires.
Pour la dimension relationnelle, nous avons montré que l’identification à un collectif plus large permettait de générer, combiner et transférer plus efficacement les connaissances. Cette identification pourrait être offerte par l’outil. De même, en proposant une description des compétences des acteurs avec leur localisation, l’outil serait un levier pour accroître les opportunités d’effectuer des partenariats locaux : or, la proximité géographique (§ 2.2.1.5.) favorise les interactions de face-à-face, le développement de la confiance et par voie de conséquence le transfert de connaissances tacites entre les acteurs du partenariat.
Pour la dimension cognitive, la participation d’usagers pilotes au processus de co-conception et donc à la codification des connaissances permettrait l’émergence de représentations et codes partagés par ces acteurs, facilitant ainsi les conditions de création de connaissances. Ces échanges, dans le cadre de la co-conception, peuvent ainsi accroître les cadres cognitifs des industriels et des chercheurs, cadres souvent perçus par ces deux types d’acteurs comme des freins lors de la mise en place de partenariats.

En revanche, certains freins identifiés précédemment (§ 2.2.1.) notamment pour la mise en place de partenariats entre recherche publique et recherche privée ne pourront certainement pas être levés par l’outil. Il s’agit des variables suivantes :
Les problèmes de propriété intellectuelle dans la négociation des contrats,
Les différences entre les acteurs de la recherche publique qui obéissent à une règle de priorité et ceux de la recherche privée à une règle de propriété,
Les problèmes d’orientation à court terme des industriels, des restrictions de publication par les acteurs de la sphère publique, ou encore ceux des sujets proposés,
Les manques de proximité organisationnelle et institutionnelle entre ces deux types d’acteurs.
Notons enfin que notre problématique nous a amenés d’emblée à investir, dans le cadre du projet KMP, une recherche de type intervention. Plus spécifiquement, nous avons souhaité enrichir cette méthode avec l’approche scientifique du design de Romme. En conclusion, la méthodologie que nous avons investie puise à la fois dans les travaux francophones de la recherche intervention, et ceux, plus anglo-saxons, du design. Elle nous a conduits, après avoir présenté le projet KMP, à définir les différentes boucles qui ont modelé notre démarche de connaissances.

Chapitre 4 : Résultats et discussions
Introduction

« Le projet KMP renforce le sentiment d’appartenir à un collectif, c’est un élément fédérateur de la communauté sophipolitaine. L’utilisation de l’outil va créer des regroupements fréquents entre les utilisateurs, ce qui pourrait amener la création de communautés dans certains domaines. »
[Témoignage d’un industriel membre de Telecom Valley, IBM].
« C’est le véritable tour de force qui est accompli dans ce projet, à savoir se décrire sans rien dévoiler de stratégique »
[Témoignage d’un institutionnel membre de Telecom Valley, CAD].
« C’est clair que l’information la plus utile pour moi est de savoir (…) s’ils ont une activité en recherche et développement, s’ils seraient demandeur d’une telle activité »
[Témoignage d’un chercheur membre de Telecom Valley, équipe CAÏMAN, INRIA].

L’objectif du présent chapitre est de mettre à l’épreuve du terrain le cadre théorique précédemment présenté et de montrer comment la démarche de co-conception proposée a été expérimentée dans le cadre du projet KMP. Plus spécifiquement, nous avons choisi d’articuler cette analyse du processus de co-conception mis en œuvre dans le cadre du projet KMP en plusieurs temps. D’abord, il est indispensable d’effectuer une analyse du contexte sophipolitain à travers les différents acteurs qui le composent en attachant une importance toute particulière à leurs bases de connaissances et aux différentes interactions qu’ils entretiennent. Il s’agira de mettre en évidence les complémentarités qui peuvent exister et la compréhension partielle que possèdent les acteurs du sens de ce contexte. Puis, la prise d’appui sur la démarche de recherche intervention que nous avons précédemment définie nous permettra de détailler les différentes étapes c’est-à-dire les boucles de co-conception qui ont façonné le développement de la solution. Nous apporterons une attention toute particulière aux critères de choix ou aux variables explicatives des décisions opérées en insistant sur le rôle co-créateur des environnements de l’action.
L’analyse de ces différentes boucles nous conduira alors à mettre en exergue le rôle prégnant « d’objets » tant au niveau de la conception que des usages. Nous verrons ainsi successivement les apports des objets intermédiaires et des objets frontières dans les boucles de conception et d’usage de l’expérimentation KMP. Il s’agira ici de mettre en évidence les médiations multiples et complexes qui ont façonnées le projet.
Enfin, nous tenterons dans une dernière section de prendre du recul par rapport aux résultats de l’expérimentation. Ceci nous conduira alors à conclure en discutant des apports d’une solution TIC à la mise en œuvre de projets de recherche publique / privée innovants d’une part, et d’une démarche de co-conception orientée usage d’autre part.
4.1. Identification des acteurs sophipolitains, de leur base de connaissances et de leurs interactions
Dans la section 3.3.1.1., nous avons effectué une brève présentation de la technopole de Sophia Antipolis et de l’association Telecom Valley. Plus spécifiquement, nous avons montré que le développement de Sophia Antipolis a connu trois principales phases depuis sa création dans les années 70 jusqu’à aujourd’hui. Ici, nous souhaitons revenir dans un premier temps sur ces développements notamment pour mettre en évidence l’évolution des interactions entre les différentes catégories d’acteurs qui composent la technopole sophipolitaine. Évidemment, cette analyse se centrera principalement sur les activités liées aux technologies de l’information et de la communication, cœur de notre recherche. Dans un second temps, nous expliciterons les compétences des acteurs et la structure actuelle d’interaction sur le site sophipolitain.
4.1.1. Sophia Antipolis : une reconnaissance significative dans le domaine de l’info-com.
Les évolutions majeures de la technopole de Sophia Antipolis l’ont progressivement amené à être reconnu internationalement dans les domaines de la conception, intégration et expérimentation de systèmes et services des télécommunications du futur. Pour autant, l’absence, a priori, de processus d’apprentissage collectif ne laissait présager d’un tel succès [Longhi, 1999]. Dans cette perspective, notre objectif consiste ici à comprendre les raisons de cette réussite. Cette analyse sera développée en deux temps : dans un premier temps, nous expliciterons les modes de croissance du site puis, dans un second temps, nous mettrons en évidence la complémentarité des trois activités fondamentales qui le fondent.
4.1.1.1. D’une plateforme satellitaire à une véritable technopole : l’émergence d’interactions.
Le développement qu’a connu la technopole de Sophia Antipolis est relativement atypique en comparaison d’autres systèmes productifs localisés [Krafft, 2004 ; Longhi, 1999]. En effet, comme nous l’avons préalablement esquissé, la création de la technopole de Sophia Antipolis est relativement jeune et s’est initiée pendant la crise du secteur des technologies de l’information et de la communication au début de la décennie 90. D’une manière générale, le développement de Sophia Antipolis se caractérise par deux périodes spécifiques, l’une précédant la crise, l’autre lui faisant suite :
De 1970 à 1990 : la période 70/90 est marquée par la création d’une plateforme satellitaire. À l’origine, quelques entreprises ont choisi de s’implanter sur le site de Sophia Antipolis pour des raisons aussi variées que le climat ou les infrastructures (aéroport, autoroutes …). Par la suite, les investissements importants concédés par France Télécom d’une part, la politique de décentralisation mise en place par le gouvernement français d’autre part, et l’implication des autorités publiques enfin ont bénéficié à son développement. Très vite, le site sophipolitain est apparu comme la résultante d’un processus cumulatif de politiques commerciales actives, avec cependant aucune logique de développement technologique sous jacente, ce qui explique le développement d’activités fondées sur des technologies aussi diverses que l’énergie et l’environnement, les sciences de la santé et de la vie ou encore les technologies de l’information. Durant les décennies 70/90, le site se distinguait déjà d’autres tels Cambridge : on n’y observait par exemple aucune création de spin-off [Longhi, 1999], et, des entreprises de grande taille, plus particulièrement positionnées dans le secteur des technologies de l’information et de la communication, sont venues s’y implanter. Là encore, leur choix était davantage motivés par les avantages offerts au niveau des infrastructures que par des réflexions plus en amont sur les avantages en termes d’innovation du site. Dans cette perspective, le site de Sophia Antipolis s’apparentait à une plateforme satellitaire, c’est-à-dire un système dirigé vers l’extérieur, riche d’interactions externes mais pauvre dans les liens noués à son échelle [Longhi, 1999].
De 1990 à aujourd’hui : la période est marquée par l’émergence d’une technopole. Les technopoles se définissent comme des concentrations géographiques locales « d'entreprises innovantes, situées à proximité de centres de recherche et de formation scientifique, qui forment ensemble un micro-système innovant » [Ruffieux, 1991 : 375].
Sur Sophia Antipolis, après l’établissement de filiales de grandes entreprises multinationales puis de PME, des instituts de recherche (Ecole des mines, INRIA, CNRS) ont choisi de s’implanter, fondant leurs recherches sur la structure industrielle alors prédominante, c’est-à-dire l’info-com. En 1986, au moment de l’implantation de l’Université de Nice sur le site et son offre concomittante de nombreuses formations, les entreprises ont eu à leur disposition immédiate une importante main d’œuvre qualifiée. La présence de ces instituts de recherche a également permis, notamment grâce aux programmes doctoraux, les premières créations de spin-off. La proximité nouvelle entre instituts de recherche et entreprises couplée à la création d’instituts de normalisation a davantage encore accru l’attractivité du site et donc le nombre d’implantations.
Au début des années 90, les évolutions dans les technologies de l’information et de la communication conduisent à l’avènement du mobile et de l’Internet. L’émergence de ces deux domaines d’activité clé, couplée à la grave crise du secteur des technologies de l’information et de la communication du milieu des années 90, fait prendre conscience aux acteurs de potentielles et fortes complémentarités au sein même du site sophipolitain (cf. § 4.1.1.2.). Dès lors, le mode de croissance de Sophia Antipolis a radicalement changé, passant d’un mode de fonctionnement exogène à endogène. La crise du secteur a poussé les entreprises en place, et notamment les filiales des multinationales, à envisager une stratégie afin de pouvoir rester présente sur le site. Très vite, la complémentarité des compétences entre entreprises et entre entreprises et organismes de recherche est apparue comme un avantage stratégique clé conduisant les acteurs à initier le développement de clubs et associations d’industriels et de chercheurs, comme l’association Telecom Valley en 1991.
Finalement, la crise du secteur TIC des années 90 combinée aux évolutions technologiques, a conduit à un bouleversement profond des échanges au sein de la communauté sophipolitaine, cette dernière développant un mode de croissance endogène. En effet, autrefois tourné vers l’extérieur, le site a initié à cette période une nouvelle stratégie de développement, fondée sur la complémentarité des ressources et des compétences des acteurs en présence, afin notamment de dissuader les maisons mères de délocaliser les filiales implantées sur Sophia Antipolis. Aujourd’hui, nous pouvons dire que cette stratégie a été un succès dans la mesure où d’une part, il n’y a pratiquement pas eu de fermeture d’entreprises sur Sophia, et, d’autre part que le nombre d’entreprises implantées sur le site est resté croissant des années 90 à aujourd’hui [Krafft, 2004].
4.1.1.2. La convergence microélectronique, télécom et informatique : des opportunités nouvelles de combinaison
Krafft [2004] s’est plus particulièrement intéressée aux raisons qui font que la technopole de Sophia Antipolis a su passer outre la crise des télécoms. Là encore, le développement atypique du parc scientifique de Sophia Antipolis mérite d’être soulignée.
En effet, l’accumulation des entreprises entre 1982 et 1992, sans politique de développement technologique (idée de la plateforme satellitaire), a conduit à la création d’un cluster multi-technologique, à forte dominante TIC. Durant cette décennie, le secteur info-com s’est tout d’abord structuré autour du développement des communications vocales et des microordinateurs grâce à la combinaison d’entreprises du domaine de l’information et des semi-conducteurs. Puis, dans une seconde étape, l’avènement des mobiles a conduit les entreprises de semi-conducteurs à se spécialiser. Cette spécialisation a impliqué un infléchissement des implantations d’entreprises de l’informatique. En parallèle, la séparation technique entre les infrastructures et les applications a permis à des fournisseurs de services d’intégrer le site, sans toutefois que ces implantations n’égalent celles observées dans les autres clusters.
Ainsi, au début des années 90, le site de Sophia Antipolis est composé d’autant d’entreprises du domaine des télécoms, que de la microélectronique ou des logiciels. Ce site dispose alors d’une multitude d’entreprises impliquées dans deux réseaux différents d’innovation : un premier, fondé sur la complémentarité des compétences des entreprises dans les mobiles et l’Internet, et un second, plus orientées vers les besoins spécifiques de clients industriels comme les banques, l’aéronautique, la santé ou encore le tourisme et les médias. Selon Krafft [ibid.], c’est la présence de cette multitude d’acteurs, couvrant l’ensemble des compétences de la chaîne de valeur info-communications, qui a permis au site sophipolitain de ne pas souffrir de la crise. Plus spécifiquement, c’est la convergence des entreprises vers les activités de l’Internet et des mobiles, rendue possible par l’effet de masse de la période précédente, qui leur a permis de maintenir leur croissance.
Aujourd’hui encore, le site de Sophia Antipolis est le seul cluster français où les trois domaines du secteur STIC sont représentés à part égale. Comme le montre la figure suivante, il est même le seul en Europe avec la région munichoise à regrouper des forces équilibrées dans les trois domaines complémentaires que sont la microélectronique, les télécoms et l’informatique.

Figure 27 : Comparaison des effectifs de recherche et des effectifs industriels en microélectronique, télécoms et logiciels en PACA avec les autres grands pôles européens [issu de la réponse du pôle SCS à l’appel à projet pôle de compétitivité]
Récemment, la région PACA a su bénéficier de cette spécificité pour promouvoir la création du pôle Solutions Communiantes Sécurisées, comme l’atteste cet extrait de la réponse de la région PACA à l’appel à projet « pôle de compétitivité ».

Poussé par les progrès des composants électroniques, de l’informatique et de la numérisation, le paysage des Technologies de l’Information et de la Communication s’est dans une première étape structuré autour du développement des communications vocales (Développement de la Téléphonie) et des microordinateurs, puis de leur mise en réseau au travers de l’Internet et du web. L’avènement des mobiles a apporté les éléments d’une seconde convergence: avec les usages nomades de moyens de communication et d’accès aux systèmes d’information. En arrière plan de ces vagues de fond visibles du grand public, une autre convergence anime depuis une vingtaine d’année ce secteur industriel: l’explosion des logiciels embarqués dans les systèmes ou simplement enfouis dans les puces électroniques. Cette convergence marque le rapprochement des mondes de l’informatique, des télécommunications et de la microélectronique qui embarque toujours plus de logiciels applicatifs dans les composants et les produits. Elle conduit à la création d’un marché unique des Technologies de l’information et de la communication et des services associés. Sur ce marché, la réactivité et le « time to market » sont primordiaux du fait de son caractère largement grand public. […]
Notre vision est donc celle d’une évolution rapide et extrêmement forte du secteur des technologies de l’information et de la communication vers un élargissement du champ d’application et une mise en communication généralisé avec l’avènement de l’informatique diffuse. La complexité de ce monde pour les utilisateurs finaux doit être masquée par le développement de solutions intégrées garantissant les fonctionnalités de communications et des qualités d’usage essentielles comme la sécurité ; c’est ce que nous résumons au travers du vocable de Solutions Communicantes Sécurisées.
Encadré 2 : extrait de la réponse à appel à projet « pôle de compétitivité » de la région PACA
En définitive, l’originalité de Sophia Antipolis c’est-à-dire son mode de croissance endogène, lui a conféré sa principale force : c’est bien parce que le site sophipolitain s’est développé comme une plateforme satellitaire avec une multitude d’entreprises dans des domaines variés pour ensuite se spécialiser, qu’une stratégie de développement fondée sur la complémentarité des compétences des entreprises locales a été possible (création de la technopole sophipolitaine).
Bien évidemment, la réussite du site sophipolitain n’est pas seulement le fait des entreprises. Les universités et instituts de recherche locaux, mais aussi les instituts de développement ayant offert des ressources financières et physiques utiles au développement du site ont joué un rôle prégnant.
4.1.2. La technopole sophipolitaine : des complémentarités potentielles entre recherche publique et recherche privée
L’activité de la technopole de Sophia Antipolis dans le domaine des télécommunications s’appuie sur une recherche active qui implique des acteurs des secteurs publics aussi bien que privés. La recherche publique est présente par le biais des établissements d’enseignement supérieur, universités ou écoles, et des instituts publics de recherche. La recherche privée l’est par des laboratoires de recherche et développement de nombreuses entreprises. Au-delà, des structures de coordination permettent des échanges fréquents et réguliers entre l’ensemble des acteurs.
La recherche publique
La recherche publique est bien établie à Sophia dans les divers laboratoires, et tout d’abord dans les institutions à vocation généraliste. En premier lieu, l’Université de Nice-Sophia Antipolis (UNSA) et le CNRS disposent de deux laboratoires communs dans le domaine :
le LEAT - Laboratoire d'Electronique, Antennes et Télécommunications - regroupe près de 40 scientifiques autour de 4 thèmes : modélisation et simulation pour la résolution de problèmes de rayonnement et de diffraction, conception, réalisation et test de nouvelles antennes, antennes actives intégrées et microélectronique RF et détection et imagerie micro-onde. Ce laboratoire entretient des liens étroits avec les industriels du domaine de la microélectronique notamment à travers la plateforme CIM PACA. Ce laboratoire s’apparente donc aux laboratoires fondamentaux et spécialisés que nous avons analysés dans la section 2.2.3.2., c’est-à-dire des laboratoires dans lesquels les chercheurs mènent des recherches de type fondamental qu’ils valorisent au moyen d’articles. Par la suite, compte tenu de leur spécificité, ils travaillent avec des industriels qui font appel à leur expertise et à leur capacité de recherche pour tenter de résoudre des problèmes précis. Au départ ancré dans une logique de club (cf. § 2.2.3.2.), le LEAT a su nouer avec le tissu local de fortes interactions qui nous laisse penser, à l’heure actuelle, aux prémices d’un développement à partir d’une logique de proximité.
l’I3S - Laboratoire d’Informatique de Signaux et Systèmes - couvre différents thèmes liés aux télécommunications (domaine logiciel, télécoms, microélectronique et contenu), du traitement du signal et des images aux architectures orientées télécoms. Cet institut regroupe près de 200 scientifiques et développe ses activités en algorithmique, combinatoire et applications, architectures logicielles et matérielles, images, logiciel, traitement du signal, robotique, contrôle et optimisation. Ce laboratoire s’apparente plus à un centre de conception d’outils et de méthodes génériques. En ce sens, son objectif est principalement de mettre des recherches fondamentales ou des outils génériques à disposition de la profession. Il s’ancre donc principalement dans une logique de club.
Les instituts de recherche et les écoles spécialisées sont aussi présents en force à Sophia :
L’INRIA a, depuis 1983, une unité de recherche dont une bonne partie des activités concerne directement les télécommunications, qu’il s’agisse de la microélectronique, du logiciel, des télécommunications ou des contenus. Il regroupe environ 550 personnes dont 380 scientifiques (chercheurs, doctorants, post-doctorants, collaborateurs extérieurs, visiteurs étrangers) réparties en 30 équipes de recherche (en partenariat avec le CNRS, l’UNSA, l’Université de Provence, l’ENS (Ulm), l’ENSMP, l'ENPC) dans les domaines suivants : Internet, protocole et réseaux, sécurité informatique, informatique pour les sciences de la vie, réalité virtuelle, robotique, transports. Elle héberge aussi ERCIM qui est également l'hôte européen du consortium W3C. L’INRIA a noué de nombreuses interactions avec les industriels locaux et notamment avec des grands groupes ce qui nous laisse penser que cet institut, tout comme le LEAT, peut se définir comme un laboratoire de recherche fondamentale et spécialisée. Certaines équipes s’ancrent donc dans une logique de proximité, pour autant la logique de club est plus réelle pour d’autres.
L’institut EURECOM, fondé conjointement par l’ENST et l’EPFL en 1992, puis élargi à d’autres partenaires européens, appuie fortement ses enseignements sur la recherche dans les domaines des télécommunications, d’entreprises, multimédias et mobiles. Cet institut, qui regroupe plus de 100 personnes dont 80 scientifiques, possède une structure originale de GIE comportant des partenaires non seulement académiques mais aussi industriels (Ascom, Swisscom, THALES Communications, La Fondation d'Entreprise Cegetel, France Télécom, Hitachi Europe, Texas Instruments, STMicroelectronics et Bouygues Telecom) qui participent à ses instances décisionnelles. De part sa structure spécifique et ses collaborations étroites avec les industriels, cet institut s’apparente à un centre de recherche pour la profession. Ici, les chercheurs sont à l’écoute de la profession pour déterminer leurs thématiques de travail et se spécialisent sur des thématiques précises. L’institut Eurécom noue donc ses contrats selon une logique de marché, c’est-à-dire avec la volonté affichée de répondre à des besoins précis des industriels.
Enfin, concernant les formations supérieures, le pôle sophipolitain s’est adossé au projet régional de Campus STIC qui vise à regrouper les principales forces de recherche et d’enseignement supérieur dans le domaine des STIC sur le site de Sophia Antipolis. Le Campus regroupe ainsi l’Ecole Polytechnique Universitaire de l’Université de Nice Sophia Antipolis, une école doctorale STIC et des locaux pour Eurécom.
Au total, ce sont environ 700 chercheurs sur poste qui, dans la seule recherche publique, travaillent déjà dans le domaine des télécommunications. Au-delà, la présence à Sophia Antipolis du siège d’ERCIM (European Research, Consortium in Informatics and Mathematics), des organismes européens de standardisation ETSI (European Telecommunication Standard Institute) et W3C Europe (World Wide Web Consortium) donne au pôle STIC sophipolitain une visibilité au niveau mondial.
La recherche privée
Les industriels du domaine sont nombreux à Sophia Antipolis et dans le département des Alpes-Maritimes. Sophia Antipolis est au cœur de la révolution digitale depuis son origine : le premier échange voix données entre deux ordinateurs par satellite a été réalisé entre IBM La Gaude et New York dans les années 70. La digitalisation de la voix, utilisée dans le GSM par un demi milliard de personnes, repose aussi sur un algorithme développé à La Gaude. IBM construit aujourd’hui un centre dédié au business process des secteurs économiques de la grande distribution, des sciences de la vie et des télécoms.
Le tissu industriel et technologique de PACA se caractérise par une forte concentration d’entreprises leaders sur leur marché. Dans le domaine de la microélectronique, le site compte 2 des 10 premiers groupes mondiaux de microélectronique, ayant une présence très significative en termes de capacité de production et /ou de R&D : Philips Semiconductors et Texas. Dans le domaine des télécommunications, Texas Instrument a choisi la Côte d’Azur pour implanter l’un de ses plus importants centres de R&D européens (plus de 500 ingénieurs). Le site a également une position de leadership incontesté sur la marché des systèmes de gestion et de communications d’entreprise, avec SAP et France Télécom ; celui des satellites et des télécommunications, avec ALCATEL Space le premier fabricant européen ; celui du management de la relation client, des process de l’entreprise et des transactions, avec IBM et avec Amadeus le leader mondial des services de réservation.
En synergie avec les grands groupes, les PME et start-up impliquées dans le site apportent des compétences souvent très pointues, complétant efficacement la chaîne de valeur depuis la microélectronique jusqu’aux usages. La dynamique de convergence passe notamment par la réactivité de ces entreprises souvent récentes qui se sont d’emblée positionnées sur des marchés émergents et à fort potentiel. C’est notamment le cas de toutes les entreprises issues de l’industrie de la carte à puce ou encore celles qui développent des logiciels pour des systèmes de télécommunication.
Ces entreprises, qui n’ont parfois que quelques années d’existence, ont souvent déjà des positions concurrentielles très affirmées sur leurs marchés comme par exemple ASK (leader mondial pour le développement, la fabrication et la commercialisation de cartes à puces sans contact), SOPRA GROUP, avec sa filiale AXWAY (l’un des leaders européens des échanges sécurisés avec sa gamme de produits d’EAI), ILOG (leader mondial du composant logiciel), REALVIZ, essaimage de l’INRIA (développe des logiciels de traitement d’image très innovants pour la production d’images numériques 2D/3D pour les industries de l’audiovisuel et du multimédia).

Les industriels de Sophia Antipolis et les PME en particulier, ont pris l’habitude de mutualiser leurs efforts en matière de démarche commerciale export et de promotion de leur pôle. Ces actions, organisées principalement par les associations, ont permis à des entreprises souvent de taille intermédiaire de bénéficier d’une dynamique, d’un effet de masse et d’une logistique pour apparaître sur quelques-uns des plus grands salons internationaux de leurs marchés. Ci-dessous figurent des exemples d actions collectives de promotion :
ð SAME : chaque année, les acteurs de la microélectronique de PACA organisent le Sophia Antipolis MicroElectronics Forum. Cet événement est principalement organisé autour de conférences et de stands d’exposition.
3GSM Congress : depuis plusieurs années, Telecom Valley organise pour ses adhérents une action de promotion des entreprises de télécoms sur un des plus grands salons mondiaux dédiés à la téléphonie mobile (48 000 congressistes en 2005 à Cannes).
Le CREMSI organise chaque année de nombreuses actions collectives (stands groupés notamment) sur des événements professionnels tels que le salon CARTES, le forum IMAPS, la semaine de l’électronique, la conférence européenne MAM, le salon INTERCONEX, ... Il favorise également tous les ans les rencontres du CREMSI pour permettre aux entreprises de la région d’échanger sur des thématiques d’actualité.
Les clubs et associations
De nombreuses structures de contact permettent l’établissement de synergies entre ces multiples forces d’innovation. Celles-ci dépassent le cadre habituel des contacts entre institutions publiques de recherche ou celui des transferts entre laboratoires publics et industriels par le biais, par exemple, de contrats de recherche. Elles sont une caractéristique de Sophia Antipolis.
Plusieurs de ces structures collaboratives sont des associations transversales centrées sur les usages des télécommunications, ou qui s’y rattachent de près :
Association Telecom Valley : Créée en 1991, Telecom Valley supporte activement le développement d'un cluster unique, à vocation internationale, dans les domaines des Télécommunications et des Technologies de l'Information. Dans ce but, l'association capitalise sur l'expertise de ses membres, start-ups, PME, groupes internationaux, centres de recherche et d'enseignement supérieur, organismes de normalisation et institutions régionales (cf. § 3.3.1.1.). L’association Telecom Valley valorise l’ensemble de la chaîne de valeur des STIC jusqu’aux usages.
CNRT Télius : créé en 2000, ces missions consistent à : (1) anticiper et assurer la promotion du développement conjoint des services, des usages, des sciences et des technologies de l’information et de la communication ; (2) accélérer le transfert réciproque des problématiques et des résultats entre les laboratoires publics et privés, locaux et nationaux ; (3) susciter des projets collaboratifs, porteurs d’innovation et de valeur. En ce sens, le CNRT Télius, comme l’association Telecom Valley, s’articule autour de la chaîne de valeur STIC avec un ancrage fort dans les usages.
Club In’tech : L'unité de recherche de l'INRIA à Sophia Antipolis, soucieuse de s'ouvrir plus largement aux partenaires socio-économiques locaux et régionaux, a créé en 2002 un "Club Des Partenaires". C'est un club scientifique et technique qui permettra à ses membres de s'informer sur l'état de l'art et les perspectives dans les domaines de l'informatique, du calcul scientifique et de l'automatique, donc du domaine STIC dans sa globalité.
Fondation Sophia : créée en 1984, son objectif est l’animation scientifique, culturelle et internationale du parc de Sophia Antipolis et la mise en place d’une réflexion prospective.
D’autres acteurs de promotions collectives se développent quant à elles sur des pôles de compétences plus précis :
Sur le pôle de la microélectronique :
Arcsis : Imaginée et créée en 1993, sous le nom de CREMSI, par les acteurs de la filière microélectronique régionale, ARCSIS réunit 5 grands groupes, Atmel, Gemplus, Philips Semiconductors, STMicroelectronics, Texas Instruments, plusieurs dizaines de PME ainsi qu'une quinzaine d'écoles, laboratoires de recherche et universités de la région. Véritable relais de valorisation des savoir-faire, ARCSIS offre à ses membres l'opportunité de se découvrir, de s'apprécier et de mettre en commun leurs compétences techniques et humaines pour bâtir ensemble les innovations et produits appelés à faciliter notre quotidien d'aujourd'hui et de demain.
Same : l’association SAME a été créée en 2004. Elle a pour objectif de promouvoir et développer le pôle d’excellence autour de la technologie de conception de circuits électroniques avancés dans le département des Alpes-Maritimes.
Sur le pôle logiciel : MedInSoft est le réseau méditerranéen des créateurs de logiciels. Créé à l'initiative du Club Informatique de Provence fin 2003, il a pour vocation de fédérer les compétences et les ressources des éditeurs de logiciels de Provence Alpes Côte d'Azur et Corse.
Sur le pôle contenu : MedMultimed est une association des entreprises du multimedia en Région PACA, créée en 1994. Elle vise à rassembler des entreprises sur le marché de la création et diffusion de produits numériques de type culturel, éducatif, ludique, touristique et professionnel, sur tout type de média de diffusion (web, téléphonie, cédérom, DVD etc.).

D’autres associations ont une vocation plus généraliste, mais leur activité dans le domaine des télécommunications est à la mesure de celle de leurs membres, telles PERSAN qui regroupe, entre autres, les acteurs publics de la recherche, l'Université de Nice-Sophia Antipolis et le CNRS ou encore le Club Hi Tech qui vise à promouvoir les activités de haute-technologie en particulier dans le domaine de la télédétection et de l’environnement.

Au final, la technopole sophipolitaine trouve véritablement son originalité dans la convergence de quatre filières (microélectronique, logiciel, télécoms et contenu) et dans la présence forte de clubs et associations qui soutiennent ces complémentarités. Cette convergence peut être représentée comme suit :

Figure 28 : Poster Telecom Valley
Plusieurs éléments méritent ici d’être soulignés. En effet, à la lecture de cette figure, il semble que seul le domaine de la microélectronique dispose d’une association rassemblant des acteurs de la recherche publique et de la recherche privée. Sur Sophia Antipolis, ce domaine est le plus actif notamment grâce à la plateforme CIM PACA. Il est également intéressant de rappeler que la présence de clubs dans les domaines du logiciel et du contenu est très récente ce qui peut expliquer que dans l’immédiat, ces associations sont restreintes aux acteurs industriels.
4.2. Les étapes : analyse chronologique de la démarche de co-conception
Notre objectif consiste dans cette section en l’analyse détaillée de la démarche de co-conception qui a façonné le projet KMP. Comme nous l’avons brièvement décrit (cf. § 3.3.3.2.), ce projet s’articule autour de quatre boucles itératives de co-conception et d’appropriation (correspondant aux années 2001-2002, 2003, 2004 et 2005-2006). Chacune de ces boucles a été développée en six étapes, combinant à la fois les approches de Hatchuel et Mollet [1986] et Romme et Endenburg [2006] (cf. § 3.2.3.2.).
Dans cette perspective, l’analyse que nous proposons peut être schématisée comme suit :

Figure 29 : Analyse chronologique des boucles de co-conception
Pour rappel, la première étape consiste en la perception du problème, la seconde à transformer les perceptions en concepts et données, la troisième à construire des scénarios d’usage, la quatrième à matérialiser le modèle, puis la cinquième à l’expérimenter et l’évaluer pour in fine induire un processus de changement. Notons ici que les cinquième et sixième étapes, celles de la phase expérimentale / évaluation et du processus de changement, même si elles participent à part entière au processus de co-conception, interviennent directement au niveau des trajectoires d’usage des acteurs.
4.2.1. Analyse de la boucle 2001-2002
Cette boucle marque véritablement le passage de l’idée à la réalisation du projet ou tout du moins à son élaboration. En effet, ces deux années ont essentiellement été dédiées à éclaircir, étayer et formaliser la demande des institutionnels locaux d’effectuer une cartographie des compétences des acteurs de Telecom Valley (TV) et ont conduit, in fine, en l’obtention d’une labellisation RNRT pour soutenir financièrement le projet.
Étape 1 : la perception du problème : naissance de l’idée
Les premières interactions à l’origine du projet ont été nouées entre un membre de l’équipe de gestion du Rodige et le responsable de la commission développement de la TV (également responsable de la communication chez France Télécom) lors d’une réunion organisée par l’Université de Nice Sophia Antipolis (UNSA). L’objectif de cette réunion était d’accroître les échanges locaux entre acteurs de la sphère de la recherche publique (UNSA, CNRS, Eurécom, INRIA) et les industriels dans le cadre de la création d’un laboratoire des usages.
À l’issue de cette première réunion, le responsable de la commission développement a fait part de la demande forte des institutionnels locaux appartenant à TV d’effectuer une cartographie des compétences des membres de TV. Ne sachant pas comment effectuer cette cartographie, il a proposé d’effectuer un partenariat avec le Rodige afin de concevoir ensemble un outil TIC qui réponde à cette demande.
Très rapidement, l’équipe Rodige et le responsable de la commission développement ont effectué des entretiens pour formaliser ce projet. Ces entretiens visaient à recueillir les attentes des institutionnels mais aussi des industriels. En effet, l’idée d’une cartographie des compétences n’avait de sens, selon l’équipe de conception, que si elle était largement soutenue par la communauté cartographiée, c’est-à-dire les industriels.
Ainsi, les premières réunions avec des industriels et institutionnels locaux ont permis de mettre en évidence que ces acteurs ne partageaient pas les mêmes attentes vis-à-vis d’une cartographie des compétences. Plus spécifiquement, deux finalités ont été identifiées :
Dans un cas, l’outil était appréhendé dans une logique transactionnelle c’est-à-dire qu’il devait permettre de réduire les coûts de transaction en offrant une aide dans la sélection des partenaires.
Cette idée était surtout prégnante chez Amadeus, plus grand donneur d’ordre de Sophia Antipolis et spécialisé dans la réservation pour le tourisme. En effet, un des principaux problèmes de cette entreprise consistait à sélectionner en permanence des partenaires sous-traitants. Dès lors, la cartographie des compétences offrait à cette entreprise l’opportunité de simplifier ses recherches de partenaires et d’accroître sa visibilité pour une auto-sélection de ceux-ci. D’après le responsable des activités de sous-traitance de cette entreprise, « le concept entre pleinement dans la problématique d’Amadeus qui travaille en permanence avec une soixantaine de partenaires sous-traitants à choisir parmi environ 250 postulants. Environ 70 de nos managers ont un problème pour s’orienter convenablement et la difficulté va croissant -5 nouveaux sous-traitants en 2000, 8 en 4 mois de 2001-. Réciproquement, les sociétés postulantes ont des difficultés à discerner les compétences recherchées par tel ou tel service de notre entreprise ».
Dans l’autre cas, l’outil était davantage perçu comme une ressource au service de la dynamique locale d’innovation en favorisant notamment l’échange et la combinaison de connaissances. Deux catégories d’acteurs soutenaient cette perspective :
D’une part les institutionnels locaux : leur objectif premier visait en effet à promouvoir les compétences présentes sur le site sophipolitain et de susciter par ce biais l’implantation de firmes étrangères. Il s’agissait alors non seulement de communiquer sur les compétences spécifiques mais aussi de rendre visibles et les potentialités du territoire en termes d’innovation.
D’autre part certains industriels locaux, filiales de grands groupes, implantées à Sophia pour les motifs déjà évoqués (cf. § 4.1.1.1.). La crise du secteur TIC a en effet fait peser une grave menace d’arrêt de leurs activités. Dans ce contexte, le responsable marketing technique d’une ligne de produit chez Philips Semiconductors nous faisait part de la remarque suivante : « nous avons peur sur Sophia Antipolis de la délocalisation. Or, un moyen de démontrer à nos maisons mère la nécessité de rester sur place est de leur prouver qu’il existe localement une dynamique des connaissances ». C’est dans un tel contexte que les antennes sophipolitaines ont compris l’enjeu de communiquer auprès de leurs maisons mères sur les compétences présentes sur Sophia et donc les complémentarités potentielles.
Étape 2 : le cheminement de l’idée : transformation des perceptions en concepts et données
À l’issue de ces premières réunions, la problématique de l’innovation locale est apparue comme prédominante. Ici, l’outil devait renforcer l’innovation dans le réseau sophipolitain. Le premier questionnement qui a guidé les chercheurs a donc porté sur les moyens pour permettre à un réseau localisé de devenir vecteur d’innovation.
Très rapidement, l’analyse des travaux de Guilhon et Gianfaldoni [1990] et Guilhon [1994] ont montré que le concept de chaîne de compétences était central. En effet, ces analyses mettaient en évidence qu’un réseau localisé devenait vecteur d’innovation parce qu’il permettait aux firmes de se spécialiser et d’avoir accès à des connaissances complémentaires via le réseau. Dans cette perspective, la firme est présentée comme une chaîne de compétences, compétences qui ne sont au final que le reflet de connaissances en action.
Le modèle de la chaîne des compétences ainsi retenu peut être représenté comme suit :

Figure 30 : La chaîne des compétences [Guilhon, 1994]
Trois points clés ont alors progressivement émergé :
La connaissance est un actif stratégique : comment créer et acquérir des connaissances et les appliquer systématiquement à la production de nouvelles connaissances ?
La production de connaissances est de plus en plus spécialisée : les bases technologiques sont complexes ce qui pose un problème d’attention limitée des capacités cognitives des firmes. Ces dernières sont donc contraintes à se focaliser sur certains domaines ce qui oblige à une hiérarchisation des domaines d’investigation selon le caractère central ou périphérique de la connaissance concernée.
Cette spécialisation croissante conduit à l’émergence d’un véritable marché des connaissances. Si chaque entreprise se spécialise dans la production de connaissances centrales par rapport à ses compétences clés, elle sera dans l’obligation d’acquérir des compétences qu’elle ne pourra pas développer elle-même. Cette acquisition pourra se faire par le biais de partenariats ou de relations contractuelles. Or, le marché des connaissances est très particulier et il n’existe pas d’offres prêtes à l’emploi. La transaction suppose donc toujours une relation très particulière entre le producteur de connaissances et l’utilisateur. Dans cette perspective, l’identification du bon partenaire, la connaissance du partenaire, l’existence d’une grammaire technique commune sont autant d’éléments essentiels à la réussite de la transaction, qu’elle soit marchande ou partenariale.
Dans cette perspective, le projet pouvait se définir par sa volonté de renforcer la dynamique de création, d’acquisition et de valorisation des connaissances au sein de TV en favorisant les échanges de connaissances inter-firmes par la création (1) d’un langage commun (dictionnaire technique des phénomènes génériques) et (2) d’une base de compétences présentes au sein de TV. Soulignons ici que dès les prémices, les chercheurs ont retenu l’idée d’une base de compétences et non d’une base de connaissances. En effet, les compétences peuvent être définies comme des connaissances en action. Selon Tarondeau, « c’est l’accumulation de savoirs individuels et collectifs et l’apprentissage obtenu par leur mise en action qui génèrent les aptitudes, les capacités et les compétences » [2002 : 20]. Dans cette optique, les compétences combinent à la fois du knowledge et du knowing, des savoirs et savoir-faire [Cook et Brown, 1999] : elles sont donc un lieu où la connaissance se créée. En ce sens, et parce qu’elles sont directement échangées lors de partenariat, elles ont retenues l’attention des chercheurs pour effectuer la cartographie.
Plus spécifiquement, le projet devait répondre à des enjeux externes et internes :
Enjeux externes : accroître la visibilité du label « Telecom Valley » sur les marchés. Les clients identifiés étaient alors les institutionnels locaux et les entreprises intéressées par les produits, services et compétences proposés par les partenaires de TV.
Enjeux internes : donner un avantage compétitif aux firmes de TV par la création d’un réseau socio-économique qui procure des informations riches c’est-à-dire :
Favoriser la création et l’acquisition des connaissances au sein de TV par l’élaboration d’une véritable communauté ; faciliter le choix des partenaires ou de cocontractants par une meilleure identification de leurs compétences et domaines d’expertise ; améliorer les capacités à échanger et/ou coopérer (langage commun, histoire commune, …) ; favoriser les synergies entre connaissances complémentaires.
Favoriser la valorisation des connaissances au sein de Telecom Valley par la création d’un véritable « marché des connaissances » ; accélérer et faciliter les échanges de connaissances, sous forme partenariale ou marchande, au sein de TV.
Au final, le projet devait proposer une expérimentation de nouveaux services innovants correspondant aux modèles économiques caractéristiques de l'ère de l'innovation, où la coopération et la connaissance sont au cœur de la création de valeur. Pour autant, si la cartographie des compétences constituait un besoin clairement exprimé par les différents membres de Telecom Valley, le contenu et les contours des usages qui y étaient associés restaient largement indéterminés. Ici, le caractère exploratoire du projet KMP, lié à la nouveauté des pratiques économiques de partage des compétences faisait que les verrous économiques et d'acceptabilité étaient très liés (cf. § 3.2.1.1.).
Pour les chercheurs, la caractérisation des services se devait alors d’être construite en interaction avec les utilisateurs et dépendait fortement de l'acceptation de l'outil. Plus encore, elle reposait sur l'appropriation d'un nouveau type de fonctionnement en réseau, et de la façon dont ce nouveau mode organisationnel se structurerait autour de l'outil et prendrait racine à travers la définition d'usages communautaires de partage des compétences.
Dès lors, l’indétermination sur le contenu et les contours des usages d’une solution de partage des compétences liée au caractère émergent des pratiques d'échange et de création de connaissances inter-firmes et inter-institutions, a conduit les chercheurs à privilégier une orientation usages, point clé de la conception et de la mise en œuvre d'une solution technique proposant des services innovants.

Ces premiers principes de construction et règles de design ont par la suite été présentés lors de deux réunions de la commission développement (CR du 10 avril 2001) et de la commission partenaire (CR du 22 mai 2001). Ils ont très vite été appropriés par le nouveau président de TV (responsable marketing technique d’une ligne de produit chez Philips Semiconductors) et les responsables de la commission partenaire (responsable des activités de sous-traitance de chez Amadeus et de chez Compaq).
En août 2001, l’équipe Acacia de l’INRIA, (spécialisée dans la conception d’outil à base de connaissances), alors membre du laboratoire des usages, révélait un intérêt majeur pour ce projet de gestion des connaissances et l’élaboration d’un langage commun. Celui-ci pouvait être interprété, selon les propres termes de la responsable de l’équipe, « comme la construction d’une ontologie du cœur de métier de TV ».

Au total, en Octobre 2001 (CR du 27 octobre 2001), l’équipe de conception était composée de trois acteurs principaux :
le Rodige (UNSA-CNRS) en charge de la cartographie des compétences,
Acacia (INRIA Sophia Antipolis), en charge de l’ontologie du domaine et du service web de compétences
le Latapses (UNSA-CNRS) intéressé par la problématique des dynamiques territoriales.
En parallèle, un comité de pilotage reprenant les acteurs pilotes a été formé. Il comptait 4 donneurs d’ordre (Amadeus, Philips Semiconductors, France Télécom R&D, HP-Compaq), un institutionnel local (CAD) et une SSII (Arianne II).

Les deux derniers mois ont quant à eux été l’occasion, pour l’équipe projet, de mener les premiers entretiens exploratoires (cf. annexe 2.1. : historique du projet KMP, année 2001-2002) notamment auprès d’Amadeus et d’Ariane II. Ces premiers entretiens ont été conduits à partir d’un questionnaire établi en référence aux travaux sur la dynamique territoriale et le concept de chaînes de compétences. Ils avaient pour objectif d’identifier comment les acteurs du terrain appréhendaient le concept de compétences et les relations partenariales.
Étape et matérialisation de l’outil : le projet RNRT
En janvier 2002, lors d’une réunion laboratoire des usages, l’équipe KMP a exposé les objectifs et enjeux du projet en développement et, au-delà, a montré un exemple réussi de coopération entre chercheurs et industriels de TV. Largement convaincu par cette présentation, le directeur du laboratoire des usages a alors soumis l’idée de répondre à un appel d’offre RNRT afin d’offrir une envergure plus grande à ce projet et bien entendu, lui assurer un financement.
Dès lors, l’équipe de conception s’est occupée, durant les six premiers mois de l’année 2002, à construire le dossier de réponse à l’appel d’offre RNRT (cf. annexe 2.1. : historique du projet KMP, année 2001-2002). Plus spécifiquement, l’équipe projet a cherché un nouveau partenaire spécialiste des télécoms, notamment pour la réalisation des ontologies. Les nombreux échanges lors des réunions pour la construction de la réponse à appel d’offre ont permis aux membres de la nouvelle équipe projet de confronter leurs points de vue et leurs connaissances sur ce type d’outil.
Les principes et règles de design précédemment définis ont permis d’établir la réponse à appel d’offre RNRT (cf. § 3.2.2.2., tableau 10 : boucles de co-conception 2001-2002). Par ailleurs, les entretiens exploratoires réalisés ont permis d'identifier, d'affiner et de comprendre les besoins des communautés d'usagers et de révéler ainsi les trois activités auxquelles est dédiée la solution (les scénarios génériques) :
scénario 1 : «Avoir et donner une visibilité générale de la communauté Telecom Valley® »
scénario 2 : « Rechercher et échanger des informations dans le cadre des coopérations inter-entreprises »,
scénario 3 : « Rechercher et échanger des informations dans le cadre des coopérations recherche publique – recherche privée »

En définitive, cette étape s’est révélée essentielle dans la mesure où elle a formalisé l’intégration, dans l’équipe de conception, d’acteurs qui s’étaient auparavant montrés intéressés par le projet : l’INRIA à travers l’équipe Acacia, mais aussi le président de TV qui a souhaité assurer la présidence du comité de pilotage.
Étape 5 : phase expérimentale et évaluation
L’acceptation du projet par le RNRT, puis sa labellisation en Novembre 2002, ont permis l’évaluation du projet et lui ont conféré une forte légitimité. Dès cette première boucle de co-conception, le projet a été évalué lors de plusieurs présentations réalisées auprès des industriels et des institutionnels locaux (CCI Nice Côte d’Azur, Côte d’Azur Développement, Associations diverses) :
Mars 2002 : à l’Assemblée Générale de Telecom Valley en 2002 (présentation effectuée par le chef de projet et le responsable de la commission développement).
Le 24 Mai 2002 dans le cadre des Deuxièmes Rencontres Régionales CERAM/IHESI « Intelligence Economique et Management des Ressources Humaines » (présentation effectuée par le chef de projet -Rodige-) ;
27 Septembre 2002 : à la journée des Clubs de Sophia Antipolis (présentation effectuée par le chef de projet, le responsable de la commission développement, le président de l’association TV, un membre de l’équipe Acacia);
18 Octobre 2002 : au colloque «Knowledge Management et Création de Valeur » organisé par le Knowledge Management Institute de Sophia Antipolis (présentation effectuée par le chef de projet) ;
Notons ici que lors des présentations devant des acteurs industriels et institutionnels, la chef d’équipe du projet était accompagnée par deux acteurs (le responsable de la commission développement et le président de l’association TV) à très forte légitimité au sein du cluster de part leurs statuts dans des entreprises donneurs d’ordre et leur fonction au sein de l’association TV.
Étape 6 : processus de changement
La boucle de co-conception 2000-2001 s'est concrétisée par la formation d’une première boucle d'intéressement autour des deux commissions de TV (commission développement et commission partenaire). La labellisation RNRT a étendu la légitimité du projet KMP à l'ensemble des représentants de TV et notamment à son Président qui a soutenu officiellement le projet en assemblée générale –décembre 2002- et l’a décrit sur le site web de l’association. Ce soutien, combiné à la labellisation, a favorisé l’intégration de nouvelles entreprises en tant qu’usagers pilotes de la solution. Ainsi, en 2002, Atos Origin, Transiciel et Elan IT, SSII de TV, ont rejoint le comité de pilotage.
Ici, il est intéressant de mettre en évidence le rôle des porte-paroles dans cette boucle de co-conception :
L’engagement du responsable de la commission développement a conduit l’entreprise France Télécom R&D à intégrer le comité de pilotage du projet ; celui du président de TV nous a permis de collaborer avec Philips Semiconductors.
L’intérêt du responsable de la sous-traitance de chez Amadeus au projet KMP a été central d’une part pour l’intégration de cette entreprise dans le comité de pilotage, mais au-delà, dans son rôle déterminant d’intéressement auprès de certaines SSII.
En revanche, la SSII Ariane II, au départ très porteuse du projet, notamment à travers deux de ses consultants, n’a pas poursuivi cette démarche par la suite. En effet, ces deux consultants ont quitté cette société fin 2002 ce qui a rompu toute relation avec cette SSII. Ceci s’explique par le fait que l’engagement de ces deux consultants était a priori guidé par un intérêt personnel et que leur légitimité au sein de l’entreprise n’était pas suffisante pour véritablement l’engager en leur nom dans le projet.

Au final, cette boucle de co-conception a eu un impact significatif sur les trajectoires d’usage des communautés des industriels et des institutionnels. Cependant, même si le besoin de cartographie de la recherche publique était lui aussi prégnant, nous n’avons pas trouvé à l’issue de cette première boucle un porte-parole légitime qui soutienne cette initiative. Pourtant, fin 2001 (réunion de la commission développement, CR du 20 décembre 2001), la nécessité de trouver rapidement un acteur susceptible de représenter la recherche publique sur Sophia Antipolis avait déjà été soulignée par le responsable de la commission développement de TV : « besoin urgent d’un leader en matière de cartographie des compétences de la recherche locale ».
4.2.2. Analyse de la boucle 2003
Cette boucle de co-conception s’initie avec le lancement officiel du projet KMP. Au cours de cette année, nous nous sommes essentiellement consacrés à développer le prototype d’édition des compétences (prototype P0) et le prototype de requêtes relatif au scénario générique 1 (prototype P1).
Étape 1 : Perception du problème
Une fois acquise l’idée d’effectuer une cartographie des compétences, le problème de l’identification des acteurs s’est posé. En effet, les entretiens exploratoires nous ont révélé que les acteurs de la technopole souffraient d'un manque de représentation de leur espace commun d'interactions. Selon le responsable de la commission développement de TV, « aucune représentation pertinente des activités de Sophia Antipolis et particulièrement des télécoms n’existait et les tentatives réalisées par le ministère de l’industrie ne parvenaient pas à mettre en évidence la spécificité de Sophia Antipolis alliant Informatique, Télécommunications, Electronique et Usages ». Ce manque de lisibilité était perçu comme un frein aux échanges dans la technopole. Il devenait de ce fait primordial de délimiter les frontières du cluster télécoms sophipolitain, frontières qui conditionneraient la cartographie des compétences des acteurs.
La question de la description des compétences des acteurs dans un réseau de firmes restait également prégnante. En effet, comment décrire les compétences d’une entreprise avec suffisamment de précision pour développer les opportunités de partenariats, tout en évitant la diffusion de ses « savoir-faire stratégiques » qui fondent son avantage compétitif ? Cette question nécessitait de nous interroger sur un modèle de repérage qui articulent trois niveaux :
Les acteurs :
1. Problème d’identification : lesquels ?
2. Problème de description : comment ?
Leurs compétences :
3. Quel modèle de description des compétences ?
4. Quelles ontologies pour créer un langage commun ?
Leurs interactions (5).
Enfin, les ruptures d’usage identifiées précédemment, notamment celles liées à la motivation des membres à partager des connaissances sur leurs compétences avec d'autres membres du réseau nous ont conduits nous interroger sur les relations qu’entretenaient les acteurs. Ici, une analyse au sein du réseau des stratégies de communication des acteurs sur leurs propres ressources et compétences mais aussi de leurs stratégies de développement mises en place par le biais de partenariats nous paraissait essentielle.
Étape 2 : transformation des perceptions en concepts et données
Les problèmes perçus sur le terrain nous ont conduits à définir de nouveaux principes de construction et règles de design pour nous guider dans l’avancement du projet. Dès lors, notre volonté d’accroître la dynamique des échanges et combinaisons de connaissances nous a amenés à définir plusieurs éléments :
pour les acteurs : une représentation de l’espace commun pour répondre au problème des frontières du cluster ; des fiches descriptives des différentes entités (ontologie des acteurs).
Pour les compétences : un modèle des compétences et des ontologies.
Pour leurs interactions : une ontologie des différents modes de coopérations utilisées dans le cluster.
Représentation de l’espace commun : la chaîne de valeur
Pour Dyer et Nobeoka [2000: 352], l’identification à un collectif permet aux acteurs de mieux générer, combiner et transférer des connaissances. En d'autres termes, dans les secteurs où les compétences technologiques sont dispersées et distribuées au sein de nombreuses firmes de tailles inégales, où les usages futurs sont incertains et à géométrie variable, il devient nécessaire pour les firmes de mieux connaître leurs propres compétences internes et celles des partenaires avec lesquels elles sont ou seront appelées à être en relation.
Dans la solution KMP, ceci s’est traduit par la nécessité d’expliciter l’espace commun, en rendant visible le collectif à travers le portefeuille de compétences qui le compose et les jeux d’intérêt qui l’anime. Le choix s’est alors porté sur une chaîne de valeur, représentation qui permettait de mettre en évidence les complémentarités propres au cluster télécoms sophipolitain. Élaborée à partir des travaux du MIT [Constance et Gower, 2001], la modélisation de cette chaîne de valeur s’est construite en étroite collaboration avec les utilisateurs pilotes. Elle sera présentée de façon approfondie dans la section § 4.4.1.1.
La représentation des acteurs
Le choix du bon partenaire dans les partenariats inter-firmes et entre firmes et organismes de recherche est une variable discriminante. Pour autant, celle-ci suppose en amont de comprendre les activités principales des différents acteurs susceptibles de participer à des partenariats. Dans cette perspective, nous avons été amenés à définir des fiches descriptives pour les industriels (fiche entreprise) et pour les organismes de recherche (fiche organisme de recherche, fiche laboratoire, fiche équipe de recherche). Des ontologies des différents statuts et rôles des acteurs ont par la suite été éditées.
Le modèle des compétences
Dans la mesure où l’objectif du projet était de favoriser la combinaison de compétences par le biais de partenariats, le repérage de la compétence, son évaluation dans un objectif de comparaison, puis son positionnement dans l’espace commun, étaient essentiels. Le repérage, l’évaluation et le positionnement permettaient en effet d’identifier le bon partenaire ou les combinaisons potentielles pertinentes. Il s’agissait alors de proposer un référentiel qui autorise ce repérage tout en fournissant les éléments de description nécessaire au choix du partenaire. En aucun cas l’objectif n’a été de permettre une diffusion des savoir-faire détenus par les firmes.
Dans le cadre du projet KMP, le modèle des compétences proposé a été construit à partir d’une analyse croisée de la littérature en management stratégique et en ressources humaines. Il s’est articulé autour de 4 items : action, système d’offres, délivrable (résultat) et ressources mobilisées. En ce sens, une compétence pouvait se définir comme une action, qui mobilise des ressources pour fournir un délivrable qui s’insère dans un système d’offre. Ce modèle générique autorisait ainsi la description des compétences techniques et des compétences managériales. Ce modèle sera décrit de façon plus approfondie dans la section § 4.4.1.2.
Les ontologies
Les ontologies sont des ressources pour le web sémantique. Sous l’appellation Web sémantique se regroupe en fait un ensemble de recherches et de travaux permettant aux machines d'exploiter le contenu des pages Web. Ces recherches proposent des méthodes, langages et techniques pour d'une part enrichir le contenu de ces pages et d'autre part permettre l'exploitation de ces enrichissements sémantiques à l'aide de différentes ressources (terminologies, conceptuelles, ontologies ...). Disposer d'ontologies pour créer un web sémantique est donc essentiel : elles sont le support de l'enrichissement sémantique, de l'interrogation et de l'exploitation de données préexistantes, sémantiquement hétérogènes et réparties dans des sources multiples.
Ainsi, une ontologie est sorte de lexique ou de thésaurus, mais composée de concepts (organisés en taxinomie) et de relations entre concepts, couvrant un domaine ou une tâche. En d’autres termes, une ontologie sert à réduire ou éliminer les confusions conceptuelles et terminologiques entre les membres d’une communauté d’utilisateurs souhaitant partager différentes sortes de documents ou d’informations électroniques. En ce sens, l’ontologie est utile à un double niveau : une aide à la formulation des requêtes, une aide à l’indexation des documents, une aide à la formulation/affichage des réponses.
Les ontologies des compétences
Les catégories abstraites retenues pour décrire les compétences (action, système d’offres, délivrable et ressources mobilisées) constituent une partie des racines des différentes ontologies mobilisées par le moteur sémantique. Plus spécifiquement, les ontologies de KMP sont structurées autour de trois « modules » : le modèle de réseau (avec des concepts décrivant les acteurs de la chaîne de valeur et les types de partenariats), le modèle de compétences (avec les concepts d’action, délivrable, système d’offres), le modèle du domaine ou modèle des ressources mobilisées dans une compétence (ressources technologiques, ressources scientifiques et ressources managériales). Ici, les industriels ont énormément travaillé en 2003 à la recherche d’accords sur les catégories abstraites pour le modèle des ressources technologies. Cette co-construction des ontologies avec les acteurs pilotes s’est effectuée en trois temps : groupe de travail impliquant des SSII pour la partie informatique de l'ontologie (3 réunions) ; groupe de travail de managers d'une même entreprise donneur d'ordres pour la partie microélectronique (2 réunions) ; représentants de l’association TV pour la partie télécommunications (4 réunions).
Les ontologies des interactions (5)
Intégrées dans le module « modèle du réseau » décrit précédemment, ces ontologies ont permis de représenter la nature des échanges entre acteurs. Plus spécifiquement, elles se sont structurées autour des relations clients-fournisseurs et des relations de coopération (accords de coopération industrielle, accords de coopération en R&D et échanges de pratiques organisationnelles).
Étape 3 : les scénarios d’usage
Prenant appui sur les apports de la cognition distribuée, les scénarios d’usage permettent la décomposition des activités en tâches réalisables à des niveaux très locaux, c’est-à-dire dans les services ou équipes des organisations pilotes (cf. § 3.1.1.2).
À partir des scénarios génériques identifiés dans la première boucle, nous avons donc établi une description plus fine des tâches des différents acteurs, c’est-à-dire conçus des scénarios d’usage de l’outil. Toutefois, la prise en compte des tâches locales préconisées par la démarche des scénarios ne nous a pas semblé suffisante dans la mesure où elle ne permet pas d’identifier le contexte englobant dans lequel les usages émergeront (cf. § 3.1.1.2.). En effet, nous avons souhaité pouvoir appréhender un niveau d’analyse intermédiaire constitué des logiques d’action qui sous-tendent la mise en œuvre des activités dans les organisations d’accueil. Ici, nous avons enrichi la méthode des scénarios d’usage avec une approche structurationniste.
Une première série d’entretiens exploratoires construits à partir des variables de la structuration et de la cognition distribuée a été menée auprès des responsables des organisations pilotes (cf. annexe 2.1. : historique du projet KMP, année 2001-2002). L’analyse de ces entretiens nous a permis de montrer que, engagées dans un même scénario, les organisations pouvaient poursuivre des stratégies très distinctes et qu'une même stratégie pouvait se décliner de façon très différente selon l’implication des organisations au sein du cluster télécoms sophipolitain.
En analysant les logiques d’action qui sous-tendent les 3 principales activités dédiées aux 3 grandes familles de scénarios génériques (avoir et donner une visibilité du site sophipolitain, rechercher et échanger des informations dans le cadre de partenariats entre entreprises, rechercher et échanger des informations dans le cadre de partenariats entre entreprises et organismes de recherche), nous avons compris que la solution KMP se comprenait en définitive comme un support clé de diverses stratégies de communication et de développement à un double niveau : le niveau collectif (le cluster télécoms) et le niveau individuel (entreprise ou organisme de recherche).
Cette analyse nous a alors permis de reconfigurer le portefeuille d’organisations pilotes et de mieux délimiter les contextes pertinents d’usage de la solution KMP. Par exemple, le scénario 1, a priori dédié aux institutionnels locaux en charge de la promotion du site sophipolitain vis-à-vis de l’étranger, s’est avéré intéresser des organisations industrielles pourtant dès le départ « cantonnées » aux scénarios 2 et 3. Ceci s’explique par le développement original qu’a connu le site sophipolitain. En effet, nous avons montré que les synergies locales liées au territoire ont été un élément important de maintien des activités sur le site (cf. § 4.1.1.2.). C’est pourquoi les entreprises se sont intéressées, elles aussi, aux stratégies de développement collectif. En fait, nous pouvons dire que d’une façon générale, les entreprises au cœur du cluster télécoms ont besoin de comprendre la stratégie collective pour mieux se développer (stratégie individuelle).
Dès lors, le premier scénario a été élargi aux entreprises industrielles. La valorisation du site sophipolitain devait désormais se comprendre et se mettre en œuvre dans différents contextes pertinents : (1) les institutionnels locaux qui jouent un rôle d’interface entre le site et l’étranger et qui sont engagés dans des stratégies de communication collective et (2) certaines entreprises industrielles appartenant à un groupe, sous le contrôle d’une maison mère et qui sont engagées dans des stratégies de développement collectif.
Une fois identifiés chaque logique d’action et processus clés de mise en œuvre, nous avons été en mesure de comprendre les pratiques à un niveau de détail plus fin. C’est à ce niveau de détail que les items construits à partir de la cognition distribuée ont été utiles car ils nous ont permis de questionner les acteurs à propos des conditions de mise en œuvre opérationnelle des processus. En permettant de comprendre de quelle manière ces processus, faisant sens et construits en regard d’une logique d’action spécifique, sont conduits dans la pratique, il a été possible de révéler la structure et le contenu des informations requis et de construire les spécifications fonctionnelles relatives au scénario générique 1.
À titre d’exemples, l’encadré 1 est une synthèse des requêtes identifiés à partir des premiers entretiens et l’encadré 2 décrit une requête émergent du terrain pour le scénario générique 1 « avoir et donner une visibilité de TV » que nous avons traduit en spécifications fonctionnelles.

L’analyse des premiers entretiens nous a conduits à définir les requêtes suivantes :
Scénario 1 : « avoir et donner une visibilité de TV »
- Recherche d’informations sur le cluster, mise en évidence des compétences présentes sur le site, du nombre d’entreprises et/ou d’équipes travaillant sur une compétence ou un pôle de compétences, de compétences apparues dans les 6 derniers mois.
- Push d’informations sur les évolutions de l’environnement : être informé régulièrement des évolutions technologiques (apparition de nouvelles compétences, de nouveaux partenariats en R&D …)
Scénario 2 : « rechercher et échanger des informations dans le cadre de coopérations inter-firmes »
- Recherche d’informations sur une compétence particulière dans le cadre d’un partenariat industriel, sur les projets des partenaires privilégiés
- Partage de pratiques organisationnelles
Scénario 3 : « recherche et échange d’informations dans le cadre de coopération recherche publique – recherche privée » 
- Recherche d’informations sur une compétence particulière dans le cadre d’un accord de R&D,
- Recherche d’informations sur les entreprises et instituts de recherche qui désirent participer à des projets de R&D ou ont déjà participé à des projets de R&D.
Encadré 3 : Les requêtes du projet KMP
Requête : Recherche d’informations sur la technopole, mise en évidence :1- des compétences présentes sur le site- Avoir une visibilité générique sur les entreprises de la Telecom Valley TV (Atos, Philips, Ariane, CAD, HP)
- Recherche d’informations sur le secteur, Recherche d’informations sur les technologies présentes sur le site (Philips, CAD)
- Visibilité des formations locales -profils des universitaires et des chercheurs de ces instituts (Philips)2- du nombre d’entreprises et/ou d’équipes travaillant sur une compétence ou un pôle de compétences- Visibilité d’une masse critique d’entreprises + de sociétés en amont : « quelle est l’importance des entreprises dans le domaine des circuits intégrés wireless ? » (Philips)
« ce qui est important ce n’est pas la photo, c’est le delta entre ce que l’on a vu il y a un mois, il y a 6 mois et ce qu’il y a maintenant » (Atos)3- de compétences techniques apparues dans les 6 derniers mois« ce qui va m’être utile éventuellement, c’est de voir les 3 mots clés additionnels qui ont été rajoutés depuis 6 mois » (Atos)Encadré 4 : Exemple de traitement d’une requête
Étape 4 : matérialisation de l’outil
Ces nouveaux éléments ont été matérialisés sous la forme du premier prototype constitué d’une part des spécifications fonctionnelles du scénario d’usage générique 1 et d’une interface d’édition des compétences (prototype P0 et P1).
Étape 5 : phase expérimentale et évaluation
Dès le mois de mars 2003, la première expérimentation auprès de six entreprises pilotes a permis d’une part de vérifier la pertinence des items retenus pour représenter la compétence et d’autre part d’affiner les éléments de description. Rappelons ici que nous avons dès le départ privilégié une mise en situation réelle de l’outil c’est-à-dire que les entreprises pouvaient, de leur bureau, accéder directement au serveur web et inscrire elles-mêmes leurs compétences.
Ainsi, dès les premiers échanges, il est apparu que les items proposés pour représenter et structurer les compétences explicitaient la structure des modes d’organisation du travail dans les firmes et faisaient donc sens pour les acteurs impliqués dans le processus de codification. Le témoignage d’un cadre dirigeant d’une multinationale de microélectronique, personnellement impliqué dans le processus de co-conception du projet KMP, est à ce sujet très éclairant. Contacté par une personne extérieure qui cherchait un interlocuteur approprié dans son entreprise pour un projet spécifique, il nous a avoué n’avoir a priori aucune piste de réponse, jusqu’à ce qu’il mobilise la méthodologie KMP de recherche de compétences. Il fut dès lors en mesure de trouver la personne adéquate et de donner ainsi la bonne information au partenaire potentiel. Ce référentiel partagé a structuré sa façon de rechercher les compétences, même au sein de sa propre entreprise.
Les différentes stratégies ont également été testées et validées lors du premier comité de pilotage 0 le 12 février 2003. Par exemple, le chargé de valorisation de l’INRIA s’est très vite rendu compte de ses besoins en termes de valorisation individuelle : « il faut parvenir à ce que les entreprises puissent communiquer avec l’INRIA. L’outil développé lui sera utile en interne pour qu’elle-même comprenne ce que font les équipes de Sophia et pour pouvoir répondre aux sollicitations des entreprises. L’INRIA a une tradition de coopération avec les grosses entreprises mais le problème se pose avec de plus petites entreprises implantées plus récemment sur Sophia ».
Le premier prototype et ses éléments constitutifs ont enfin été évalués lors des 4 autres comités de pilotage de l’année 2003 en présence des acteurs pilotes du projet et d’autres acteurs membres de l’association TV.
Étape 6 : processus de changement
L’intéressement des usagers au projet KMP a été croissant au fur et à mesure des multiples réunions et comités de pilotage qui ont façonné l’année 2003.
À l’issue du premier comité de pilotage par exemple (CR du 12 février 2003), de nouvelles entreprises (SSII) et des institutionnels ont souhaité intégrer l’équipe projet en devenant des utilisateurs pilotes (Coframi, Cross Systems, Elan IT, Qwam System et la CCI). Dans le même temps, d’autres entreprises, déjà pilotes, nous ont fait part de leur volonté d’accroître leur participation dans le projet. À titre d’exemple, voici les propos recueillis lors de ce premier comité de pilotage.
Prise de parole du chargé d’opération de l’IRT (Initiative Riviéra Technologie) qui souligne l’intérêt du projet pour la région et de son implication en tant qu’utilisateur Pilote.
Prise de parole du responsable KM d’ATOS Origin : souligne son étonnement face à l’avancement du projet alors que nous sommes au Comité de Pilotage 0. Il se sent très concerné par ce projet et ce qui l’intéresse plus particulièrement ce sont les usages qui vont se développer autour de l’outil.
Prise de parole du directeur de Qwam System : se révèle très intéressé par le projet notamment pour impulser des partenariats techniques.
Prise de parole de directeur régional d’Elan IT : il est présent depuis un an sur le site de Sophia et vient de prendre connaissance du projet. Il croit en son utilité et veut devenir une entreprise pilote.
Encadré 5 : Intéressements des usagers : éléments du compte-rendu du comité de pilotage 0 (12 février 2006)
Lors du second comité de pilotage, nous avons appris que le nouveau président de TV confirmait le soutien officiel de l’association TV au projet KMP. L’annonce avait été faite pendant l’assemblée générale de TV le 24 Mars 2003. De plus, lors de cette assemblée générale, il avait été explicitement demandé à chacun des membres de se représenter dans l'espace commun en se situant sur la chaîne de valeur. Dès lors, pour pouvoir adhérer à l’association TV, il était nécessaire de se positionner. Ceci montre une véritable appropriation de la chaîne de valeur par les industriels, chaîne qui devient même un signe de reconnaissance pour la communauté.
Cette année 2003 a également été consacrée aux premières présentations de KMP auprès de la communauté de la recherche publique. Ces présentations ont bénéficié majoritairement aux différents services de valorisation de l'INRIA (Institut National de Recherche en Informatique et en Automatique), l'UNSA (Université de Nice Sophia-Antipolis) et l'institut EURECOM, ainsi qu'aux directeurs des laboratoires I3S (Informatique Signaux et Systèmes) et LEAT (Laboratoire d'Electronique, Antennes et Télécommunications), tous deux appartenant au domaine informatique et télécommunication. Ces présentations ont permis de mettre en place un premier niveau d’intéressement dans la communauté de la recherche publique. Plus spécifiquement, le projet a reçu un engouement important de la part des services valorisation des organismes de recherche et de quelques directeurs de laboratoire. Cet intéressement s’est traduit par la volonté du nouveau responsable de la Commission Recherche de TV (chercheur à l’Institut Eurécom) « d’impliquer fortement sa commission (et l’Institut Eurécom) dans le projet KMP » (CR du 3 avril 2003).
Cette appropriation forte du projet par la communauté s'est enfin matérialisée par l'appropriation, dans les missions de l'association TV, des trois scénarios génériques développés dans le projet. Ainsi, dans la newsletter de décembre 2003, nous pouvions lire que les objectifs prioritaires de l’association tels que définis en cette fin d’année correspondaient in fine aux trois scénarios génériques proposés dans KMP.

Les objectifs sont clairs et n'ont pas changé. En revanche, des priorités ont été établies. "Nous avons défini quatre objectifs prioritaires et y avons associé 35 actions, ateliers, projets ou groupes de réflexion (26 reconduits, 9 nouveaux, 10 abandonnés)", explique [le nouveau président de l’association.]
"L'objectif numéro un est de communiquer et échanger au sein de la communauté des membres de Telecom Valley. En soi, ce n'est pas une nouveauté, sauf que cet objectif est en tête de nos priorités 2004. Nous allons mettre ainsi l'accent sur tout ce qui peut concourir à cela : site web, travail collaboratif et autres outils, en attendant bien entendu la future plateforme KMP de Knowledge Management, qui permettent de partager, communiquer entre les membres.
J'ajoute qu'il ne s'agit pas uniquement d'une communication entre les entreprises mais également entre les 10.000 salariés de la Telecom Valley. Exemple d'initiative : "Telecom Valley News" pourra être rediffusé à l'intérieur de chaque entreprise membre, via un réseau de correspondants communication.
Le second objectif, toujours en termes de priorité : favoriser les partenariats entre les membres de l'association dans le but de développer leur activité économique et de stimuler les synergies pour mieux attaquer les marchés européens. Nous mettrons l’accent sur le "business" entre les membres. Si la Telecom Valley peut aider les entreprises à mieux se connaître et à donner envie de faire des projets ensemble, c'est une bonne chose.
Troisième objectif : partager les connaissances pour stimuler l'innovation dans les usages, les services, les technologies liées aux télécoms et à la société de l'information. La mobilité en général et le m-Tousime en particulier, la sécurité, Internet au sens large font déjà ou feront bientôt partie de la société de l’information.
Quatrième objectif : promouvoir la communauté Telecom Valley et participer auprès des instances politiques, académiques et économiques au développement de la Région.
Nous souhaitons bien évidemment poursuivre notre contribution active au développement d’un pôle Telecom régional. À noter que nous souhaitons également développer nos relations avec l'IRT, la démarche Initiative Riviera Technologies lancée par la CCINCA avec des chefs d'entreprise azuréens, au-delà de la convention déjà établie entre nos organisations.
Il ne s'agit donc certainement pas d'une révolution. Simplement, nous avons refait une passe sur nos objectifs et nos actions afin d’améliorer notre lisibilité.
Encadré 6 : Extrait de la newsletter de l’association TV (décembre 2003).
Notons que dès l’année 2003, les industriels s’interrogent sur le futur de KMP une fois le financement RNRT abouti. Ici, la création du CNRT Télius représente pour eux une opportunité pour l’avenir du projet : « le CNRT a pour mission de créer des conditions favorables à des collaborations de type recherche publique-recherche privée et en quelque sorte d’offrir une place de marché « compétences ». Faire vivre KMP à l’horizon 2005 représentera le travail de 2004 et se fera en collaboration avec le CNRT » [responsable de la commission développement de TV / responsable de la communication chez France Télécom, CR du comité de pilotage du 25 septembre 2003].
4.2.3. Analyse de la boucle 2004
La boucle de co-conception 2004 s'est construite sur la base des scénarios génériques 2 « rechercher et échanger des informations dans le cadre des coopérations inter-entreprises » et 3 « rechercher et échanger des informations dans le cadre des coopérations recherche publique – recherche privée ». Elle s’est concrétisée par la conception du prototype P2 qui intègre les fonctionnalités des scénarios 2 et 3 et un approfondissement des fonctionnalités du scénario 1.
Étape 1 : perception du problème
Pendant l’année 2003, nous avons essentiellement investi les problématiques relatives au scénario générique 1 (« Avoir et donner une visibilité du cluster sophipolitain »). Les entretiens réalisés pour construire ce scénario mettaient en évidence que les firmes accordaient une importance primordiale aux stratégies collectives de communication et de développement sur le territoire. En effet, la compréhension du collectif était essentielle pour la mise en place de politique de développement (et donc pour les instituts régionaux de développement) mais aussi pour les stratégies de développement individuel des firmes (à la fois pour permettre les stratégies défensives des donneurs d’ordre – rester sur le site sophipolitain- ou les stratégies offensives des SSII –se faire connaître en s’insérant dans le tissus local-). Début 2004, cet intérêt était toujours aussi présent aussi bien pour les institutionnels que pour les industriels appartenant à l’association TV. Dès lors, nous nous sommes attachés en 2004 à articuler la conception autour de deux processus :
Le développement des problématiques liées à la recherche et l’échange d’informations pour faciliter les partenariats entre firmes et entre firmes et organismes de recherche.
L’approfondissement des spécificités fonctionnelles du scénario générique 1. Cette demande, nous l’avons vu, est toujours aussi essentielle. Les acteurs souhaitaient en effet pouvoir observer des effets de masse sur le cluster télécoms sophipolitain ou des complémentarités technologiques prometteuses.
Étape 2 : transformation des perceptions en concepts et données
Dans le cadre du développement des scénarios génériques 2 et 3, nous avons essentiellement travaillé sur la représentation de l’espace commun et sur les ontologies.
la représentation élargie du cluster
L’engouement des acteurs pour la représentation de l’espace commun autour de la chaîne de valeur en 2003 a permis de conforter notre analyse de la littérature quant à la nécessité d’identifier les frontières du collectif. Pour être en adéquation avec les recommandations de Dyer et Nobeoka [2000] il a donc été nécessaire de prendre en compte les différentes catégories d’acteurs ou organisations formant le cluster sophipolitain. Dans cette perspective, nous a alors élargi la représentation de l’espace commun et intégrer les organismes de recherche, les instituts de normalisation, les fonctions support et les facilitateurs. Une description plus fine de cette nouvelle représentation sera effectuée dans la section 4.4.2.1.
les ontologies
Dès l’année 2003, un travail de formalisation des ontologies avait été effectué. Plus spécifiquement, nous nous étions attachés à définir des catégories abstraites pour les items caractérisant les compétences (action, délivrable, système d’offres) et pour le modèle des ressources technologiques.
Conscient de l’importance des ontologies dans la création d’un langage commun entre recherche publique et recherche privée, nous avons souhaité initier en 2004 ce même travail avec les acteurs de la recherche publique afin de déterminer les niveaux abstraits pour le modèle des ressources scientifiques.
De plus, nous avons poursuivi la cartographie des compétences des entreprises, et initiée celle des organismes de recherche de façon à assurer le peuplement des ontologies directement par les acteurs du terrain.

Dans le cadre plus spécifique du scénario générique 1, l’intérêt porté aux stratégies de développement collectif nous a conduits à définir de nouveaux concepts.
les concepts de similarité et de complémentarité
L’objectif était ici de répondre aux besoins des usagers qui souhaitaient pouvoir identifier des complémentarités et/ou des similarités technologiques sur le territoire. C’est à partir des travaux précédents concernant la codification des compétences et la représentation de l’espace commun que les concepts forts et déjà anciens de similarité et de complémentarité [Richardson, 1972] ont émergé pour venir enrichir le processus de cartographie en donnant du sens aux combinaisons potentielles de compétences (lisibilité).
En effet, l’identification de compétences similaires a permis d’identifier des pôles de compétences notamment technologiques et de mesurer le poids et l’atteinte d’une masse critique pour chacun de ces pôles. La complémentarité des compétences a quant à elle autorisé l’identification et la représentation de chaînes de valeur plus spécifiques. Il s’agit par exemple d’identifier toutes les entreprises complémentaires appartenant aux trois pôles technologiques (microélectronique, informatique et télécoms) travaillant sur le système d’offre ‘systèmes embarqués’.
Ces définitions ont ainsi permis l’élaboration d’algorithmes dans la solution KMP, qui autorisaient l’identification puis la représentation de pôles de compétences et/ou de chaîne de valeur.
Étape 3 : les scénarios d’usage
Une autre série d’entretiens a été réalisée pendant l’année 2004 (13 entretiens avec des chercheurs membres de la recherche publique, 15 avec des industriels) prenant appui sur les deux questionnaires scénarios d’usage (cf. annexe 1.2. et 1.3. : questionnaires pour entretiens semi-directifs).
L’analyse de ces entretiens nous a permis d’établir, pour chacune des stratégies identifiées précédemment dans les scénarios génériques 2 et 3 :
le type d’activité : stratégie de développement individuel ou de communication individuelle …
les acteurs clés : acteurs organisationnels pilotes et/ou usagers pilotes.
le processus : entrées (qui), tâches à réaliser (quoi), ressources mobilisées (avec quoi) et modalités (comment), problèmes rencontrés, sorties.
les éléments de contexte : étendue du scénario (différents départements concernés, interactions interne/externe, contraintes légales) et l’analyse du processus dans son environnement (signification, domination et légitimité intra et inter organisationnelle).
les conséquences sur les fonctionnalités de l’outil KMP.
À titre d’exemple, une synthèse effectuée dans le cadre du scénario générique 3 (« rechercher et échanger des informations dans le cadre des partenariats recherche publique / recherche privée) est présentée en annexe (cf. annexe 3 : exemple de scénario d’usage).
Au-delà de l’élaboration des spécificités fonctionnelles, ces analyses nous ont permis de mettre en évidence que le modèle des compétences défini dans la solution KMP autorisait plusieurs niveaux de description, niveaux qui reflètent des stratégies de communication différentes. Ainsi, les acteurs peuvent choisir de décrire (1) leurs métiers, ce qui correspond au niveau de communication minimal, (2) leurs compétences, aussi bien organisationnelles, relationnelles que techniques (niveau de communication normal), ou encore (3) ils peuvent choisir de décrire leurs projets de R&D ce qui correspond à un niveau de communication étendue.
Dans cette perspective, les acteurs qui communiquent au niveau de leurs métiers répondent à des stratégies de visibilité tandis que les acteurs qui décrivent avec précision leurs compétences s’inscrivent dans une stratégie de valorisation individuelle et collective. Ces éléments mettent l’accent sur la nécessité de conserver une certaine flexibilité dans la solution KMP. Ils expliquent également les différences de comportement vis-à-vis de la saisie des compétences dans la solution KMP.
En effet, quand les acteurs sont au cœur d’un collectif (tels Philips Semiconductors ou encore France Télécom R&D), la communication individuelle fait partie intégrante des stratégies de développement individuel et collectif. Ici, les acteurs utilisent les niveaux les plus bas de l’ontologie.
En revanche, quand les acteurs ne sont pas au cœur d’un collectif, la communication individuelle ne va pas dans le sens d’une stratégie de développement collectif. Ainsi, Amadeus s’est par exemple désintéressé du projet et notamment de la partie stratégie de développement et de communication car elle attendait surtout de celui-ci qu’il réponde à une logique transactionnelle en décrivant notamment les SSII.
Par ailleurs, il est apparu que les organismes de recherche, notamment les chercheurs, étaient peu intéressés par les stratégies collectives. Ceci constituera d’ailleurs, comme nous le verrons par la suite (cf. § 4.4.2.), un frein à leur participation active au projet.
Étape 4 : matérialisation de l’outil
De nouvelles requêtes ont été développées dans le prototype P2 concernant à la fois la recherche de partenaire (Scénario 2 et 3) mais aussi l’identification graphique de pôle de compétences (similarité) et de chaînes de valeur (complémentarité).
Étape 5 : phase expérimentale et évaluation
Dès Mars 2004, le prototype P2 d’édition et de requêtes comprenant les spécifications fonctionnelles des scénarios 2 et 3 et une amélioration de celles du scénario 1 a été mis à disposition des usagers. Les premières évaluations du dispositif lors des 3 comités de pilotage de 2004 et des entretiens de cartographie ont été complétés par des entretiens d’évaluation :
Évaluations du dispositif KMP et des fonctionnalités du scénario 1 : CAD (directeur et deux chargés d’affaire), AMADEUS (responsables du laboratoire de recherche Amadeus Labs), ELAN IT (directeur de la filiale de Sophia Antipolis), IBM (responsable d’une ligne de produit),
Évaluations du dispositif KMP et des fonctionnalités du scénario 3 : CNRT Télius (directeur).
En outre, d’autres présentations ont permis d’évaluer les concepts développés dans la solution KMP :
Présentation sur les clusters/chaînes de valeur aux membres de Telecom Valley (27 Janvier)
Présentation des concepts de KMP (clusters/pôles) pour les institutionnels locaux (10 Mars, réunion dans la cadre de la création du club SAME)
Réunions de préparation de la Journée des clubs de Sophia : Atelier « lisibilité de Sophia-Antipolis » avec les responsables de clubs (6 réunions de Juillet à septembre)
Présentation de l’Atelier « lisibilité de Sophia Antipolis » à la Journée des clubs de Sophia (23 Septembre)
Présentation des concepts de KMP à la soirée Telecom Valley (22 Novembre)
Réunions Pôle de compétitivité Solutions Communicantes Sécurisées (30 novembre et 17 décembre).
Étape 6 : processus de changement
Les développements réalisés en 2004 ont permis qu’une nouvelle boucle d’intéressement se mette en place. Plus spécifiquement, cette boucle s’est construite à trois niveaux :
Aux niveaux des SSII, l’évaluation des scénarios d'usage S2, couplée à la réalisation des ontologies, ont mis en évidence une validation positive. Au niveau individuel par exemple, la mise en situation réelle de l’outil lors du dernier comité de pilotage a accru l’appropriation de l’outil par les SSII. En effet, lors de ce comité, l’équipe opérationnelle a proposé d’effectuer sur le prototype KMP une simulation des requêtes formulées « en direct » par Elan IT, une SSII pilotes de KMP. Pendant cette simulation, la SSII a volontairement posé une requête qui correspondait à ses compétences et qui est directement apparue dans la réponse apportée par la solution. Ceci a permis d’accroître l’intérêt de l’ensemble des SSII présentes et nous a confirmé l’intérêt d’une mise en situation réelle de l’outil. Au niveau collectif, le second prototype d’édition et de requêtes (P2) couplé au travail effectué sur les ontologies, a entraîné l'appropriation du projet par les SSII pilotes. En effet, durant le processus d’élaboration des ontologies technologiques dans lequel elles ont joué un rôle actif, ces entreprises pilotes ont réalisé qu’elles avaient potentiellement à gagner en se voyant également comme partenaires plutôt que concurrentes, ce qui était plutôt le cas. La plupart d’entre elles souhaitent aujourd’hui développer les partenariats notamment en ce qui concerne le développement conjoint de solutions, ce qui pourrait leur donner accès à davantage et à de plus importants clients, au sein et en dehors de Sophia Antipolis. Afin de renforcer cette dynamique partenariale, elles pensaient même créer une nouvelle association, composée exclusivement de SSII. Très vite, l’intéressement s’est étendu au-delà des pilotes, entraînant la création d’une commission des SSII au sein de TV, commission qui intègre à la fois des SSII membres et non membres de l'association. Cette commission s'est ainsi appropriée le projet dans son ensemble, soulignant son intérêt quant à deux usages spécifiques : en termes de communication d'une part vis-à-vis des donneurs d’ordre sophipolitain ; et d'autre part de coopération notamment pour pouvoir identifier des SSII complémentaires pour répondre à des projets nécessitant de multiples compétences.
Parallèlement à ce processus d'intéressement fort au sein des SSII, une autre boucle d'intéressement s'est construite prenant appui sur les concepts de similarité et de complémentarité développés pour le scénario générique 1. Ces concepts ont en effet été repris et partagés par un grand nombre d’acteurs au-delà des membres de TV ; de nombreux instituts de développement régional (IRT, Initiatives Riviera Technologies de la CCI, Méditerranées Technologies, CAD, Côte d’Azur Développement) ou des associations de firmes (le Club Hi Tech, SAME, T.V) ont adopté ces concepts et proposé de les utiliser pour accroître la « lisibilité » du territoire sophipolitain. Ces concepts ont ainsi permis d’identifier les rôles respectifs de nombreuses associations sophipolitaines comme l’atteste cette newsletter de l’association TV publiée en décembre 2004 suite à la présentation effectuée en septembre 2004 à la journée des clubs de Sophia.
Telecom Valley établit la première cartographie des clubs de Sophia
La présentation de la cartographie des associations sophipolitaines par Bruno Delépine, Past-président et responsable du projet pôle microélectronique de l'association Telecom Valley, fut l'un des temps forts de la Journée des Clubs de Sophia 2004. Désormais, il est possible d'avoir une vision claire et rationnelle de qui fait quoi en matière d'associations sur la technopole de Sophia Antipolis et de donner du sens à un mouvement associatif plein de vitalité mais dont la cohérence n'apparaît pas toujours au premier coup d'œil.
Ce travail remarquable n'a d'ailleurs pu être effectué qu'à travers une collaboration forte entre Telecom Valley et quatre principaux partenaires : RODIGE (unité mixte de recherche, UNSA/CNRS, en Sciences de Gestion), LATAPSES (unité mixte de recherche, UNSA/CNRS, en Sciences Economiques), INRIA (Institut National de Recherche en Informatique et en Automatique) et GET (Groupe des Ecoles des Télécommunications).
Pourquoi un tel travail de « cartographie » ? « Pour plusieurs raisons », explique Bruno Delépine. « D'abord beaucoup de gens de l'extérieur ne comprennent pas toujours bien ce qui se passe sur Sophia. Ensuite, ce travail nous permet de savoir s'il y a une organisation de cluster ou pas. Si sur le site les individus ne tirent pas parti d'être les uns à côté des autres, cela ne sert évidemment à rien de se trouver sur un même site. »
Ce qui a cristallisé ce travail de recherche aura été aussi la création de SAME en tant qu'association. « Au départ », poursuit Bruno Delépine, « nous nous sommes demandés pourquoi créer une association de plus. Mais à l'éclairage de ce travail, nous avons pu réaliser que SAME faisait autre chose que les associations existantes et qu'elle se trouvait sur un segment très important de la chaîne de la valeur. Il était aussi intéressant de pouvoir travailler en partenariat avec SAME ».
Cet effort vers une meilleure lisibilité des clubs de la technopole s'est appuyé entre autres sur les notions de similarité et de complémentarité [ð& ]ð. Avec ce référentiel, tous les clubs de Sophia ont pu être placés dans un schéma général.

Cette structuration n'a rien d'un travail purement conceptuel. Elle permet de s'adapter à l'évolution des logiques du développement territorial. D un développement fondé sur les infrastructures dans les années 70 (plateforme satellitaire), nous sommes passés à un développement fondé sur la dynamique des compétences à partir des années 1990 (le technopole ou pôle de compétitivité dans la terminologie 2004 du CIADT).
Telecom Valley et ses partenaires auront ainsi commencé à établir la "carte" de ces nouveaux chemins du développement. Un travail de fonds qui n'est pas terminé. Il se poursuit à travers le projet KMP (Knowledge Management Platform) de cartographie des compétences, projet qui vise notamment à faciliter l'échange et la combinaison des compétences des membres de Telecom Valley.
Encadré 7 : Newsletter TV, décembre 2004
Pendant cette même période, des interactions fortes se sont nouées entre l’équipe de conception et le CNRT Télius. Dans la mesure où son rôle est de favoriser les synergies entre les chercheurs publics et les industriels, des éléments de convergence entre le projet KMP et les membres du CNRT sont immédiatement apparus et se sont matérialisés autour du prototype P2, comme l’avaient escompté les industriels. Ainsi, lors de la première assemblée générale du CNRT le 10 Mai 2004, le projet KMP a été présenté comme la plateforme de travail du CNRT et son directeur s’engageait publiquement à participer à la poursuite de la mise en œuvre du projet KMP et tout particulièrement du scénario 3.

Au final, le fort intéressement de la communauté industrielle et des services de valorisation de la recherche publique à la solution KMP a conduit l'ensemble des membres de TV à vouloir poursuivre le projet. Pour autant, cette réussite n’était pas présente à tous les niveaux du projet. En effet, fin 2004, force était de constater que ce même intéressement ne s’était pas réalisé au niveau de la communauté des chercheurs.
4.2.4. Analyse de la boucle 2005-2006
Cette boucle s’initie avec la fin du financement RNRT et la volonté, portée par l’association TV, de poursuivre le développement du projet en le faisant entrer dans une phase de pré-industrialisation grâce au concours du conseil régional et de la DRIRE. Une nouvelle boucle a ainsi démarré en 2005 pour une période de deux ans.
Étape 1 : perception du problème
Fin 2004, nous avons constaté un problème d’appropriation de la communauté des chercheurs de la recherche publique qui s’est notamment traduit par des difficultés pour obtenir des rendez-vous afin d’effectuer la cartographie de leurs compétences.
Plus spécifiquement, les entretiens menés en 2004 révélaient deux problèmes d’appropriation :
Concernant le modèle des compétences d’une part, les chercheurs estimaient que la partie système d’offre n’était pas appropriée à leur description. Lors du comité de pilotage du 18 mars 2004, un chercheur de l’I3S (Laboratoire d'Informatique, Signaux et Systèmes – UNSA/CNRS) avait explicitement demandé aux industriels de faire un pas vers la recherche pour trouver un compromis entre une description par système d’activité (c’est-à-dire par système d’offre) et leur description quant à elle trop technique (selon leurs propres dires).
Concernant la représentation de l’espace commun d’autre part, une évaluation avec le directeur du laboratoire I3S révélait que la représentation choisie ne permettait pas une bonne visibilité des activités de recherche sur Sophia Antipolis.
Ces deux problèmes spécifiques nous ont alors amenés à nous interroger, d’une part, sur une modélisation des compétences qui permette la cartographie des industriels et celle de la recherche, et d’autre part, sur une représentation pertinente de leur espace commun.
Au même moment, nous avons profité de l’engouement des acteurs sophipolitain (aussi bien les industriels que les chercheurs) pour la création du pôle SCS regroupant les acteurs de TV et ceux de la microélectronique basés à Marseille pour adapter la solution KMP aux problématiques des pôles de compétitivité.
Étape 2 : transformation des perceptions en concepts et données
Lancée le 14 septembre 2004 lors du Comité interministériel d’aménagement du territoire (CIADT), la politique globale de soutien à l’émergence et au développement des pôles de compétitivité visait à promouvoir une nouvelle politique industrielle qui combine mieux que par le passé le territoire, l’innovation et l’industrie.
Dans cette perspective, les candidats potentiels à l’appel à projets « Pôle de compétitivité » lancé le 2 décembre 2004 devait fournir un dossier complet qui mettait en évidence en quoi leurs activités s’inscrivaient dans cette démarche « où l’innovation scientifique et technologique sont des facteurs décisifs de la compétitivité et de l’attractivité du territoire, où la synergie entre la recherche-développement et l’activité industrielle est primordiale et où, enfin, une visibilité internationale forte est plus qu’un atout, une nécessité impérieuse ». La réponse à appel à projets nécessitait donc qu’une véritable coopération se mette en place entre acteurs de la sphère privée et acteurs de la sphère publique.
Dans le cadre sophipolitain, la création du pôle de compétitivité SCS a permis l’établissement d’un cadre institutionnel commun rassemblant à la fois les industriels et les acteurs de la recherche publique. Dès le départ, des membres de l’équipe KMP ont participé à l’élaboration de la réponse à appel à projets sur demande des industriels conquis par les concepts présentés en 2003 et 2004.
Les premières réunions entre chercheurs et industriels sophipolitain ont permis une caractérisation du pôle en construction (CR réunion réponse à appel à projets pôle de compétitivité du 10 janvier 2005). Les réflexions et analyses menées montraient alors que :
Le pôle était constitué autour de 3 principaux pôles de compétences technologiques: Microélectronique, Télécoms et Logiciels ;
Le pôle se structurait par des chaînes de valeur valorisant la combinaison de compétences complémentaires ;
La valeur créée pouvait s’analyser en termes d’usages selon une dimension générique et/ou applicative : les ‘usages génériques’ (sécurité, mobilité, ubiquité, identité traçabilité, disponibilité, fiabilité…) standardisant des services génériques pouvant être réutilisés dans différentes solutions pour différents marchés ; les ‘usages applicatifs’ proposant des services et solutions directement valorisables sur un marché.
Ces analyses nous ont alors permis de proposer une première réponse aux problèmes concernant les systèmes d’offre et la représentation de l’espace commun. En effet, la distinction entre usages applicatifs et génériques nous a permis de répondre au problème de temporalité entre industriels qui se décrivait avec une logique de marché et les chercheurs qui se situaient beaucoup plus en amont. Dès lors, nous avons décomposé l’item système d’offre qui n’autorisait qu’une description des industriels, par deux items différents : les usages applicatifs qui ont vocation à décrire les segments de marché et/ou les secteurs d’activités propres aux firmes ; les usages génériques qui font plutôt référence à un ensemble de technologies suffisamment génériques, développées plus généralement par les organismes de recherche, pour être mises au service des solutions communicantes sécurisées proposées sur leurs marchés par les entreprises. Il s’agit plus spécifiquement de la mobilité, la sécurité, la localisation, l’identité, la traçabilité, et la connectivité. Puis, nous avons proposé une nouvelle représentation de l’espace commun sophipolitain qui s’articule autour des trois grands pôles de compétence identifiés : microélectronique, télécoms et logiciel. Cette représentation sera présentée dans la section 4.4.2.
Par la suite, dans un souci d’industrialisation et plus particulièrement de redéploiement rapide dans les pôles de compétitivité, les spécificités fonctionnelles rédigées en 2003 et 2004 ont été simplifiées et rationalisées. Ces nouvelles spécificités s’appuient sur la représentation de l’espace commun élargie au pôle et sur les deux items, usages génériques et usages applicatifs. En complément, nous travaillons à concevoir une méthodologie d’aide à l’implémentation de la solution au pôle SCS bien sûr, mais également à d’autres pôles.
Étape 3 : les scénarios d’usage
Pendant cette boucle, nous n’avons pas effectué de scénarios d’usage dans la mesure où les spécifications fonctionnelles concernant les trois sous scénarios génériques étaient déjà identifiés.
Étape 4 : matérialisation de l’outil
Ces nouveaux éléments nous ont conduits à définir un cahier des charges synthétisant l’ensemble des spécificités fonctionnelles de la solution KMP et qui devrait permettre l’industrialisation de l’outil.
Étape 5 : phase expérimentale / évaluation
Même si la solution n’est pas encore créée, nous avons à plusieurs reprises pu tester les nouveaux développements initiés en 2005. Plus spécifiquement, nous avons évalué la nouvelle représentation de l’espace commun et le modèle des compétences au cours de 5 entretiens : avec le directeur du laboratoire I3S (21 novembre 2005), avec l’ancien directeur de la recherche de l’Université de Nice Sophia Antipolis (24 janvier 2006), avec le chercheur I3S qui avait suggéré de modifier l’item système d’offre (28 mars 2006), avec le directeur projet du pôle SCS (24 avril 2006) et enfin avec le directeur de l’institut Eurécom (12 Mai 2006). Au-delà, les concepts d’usages génériques et d’usages applicatifs ont été évalués lors de la journée ‘academic research forum’ organisée par le pôle SCS.
Étape 6 : processus de changement
Même si le recul n’est pas encore suffisant pour prétendre à la création d’une nouvelle boucle d’intéressement intégrant l’ensemble des acteurs du pôle SCS, il nous semble pour autant que quelques évènements indiquent un avenir prometteur à la solution :
Au niveau des industriels d’une part, la solution KMP a été choisie comme outil d’animation du pôle SCS. Elle reste donc centrale dans le développement de leurs activités, comme l’atteste la newsletter suivante.
Telecom Valley, moteur du pôle SCS
Jouer un rôle moteur dans le pôle SCS, stimuler et valoriser l'innovation au sein des membres de l'association, réinstaurer des réunions d'échange, accentuer l'effort de communication, déployer un outil collaboratif, parmi les objectifs des deux prochaines années. […]
Revisiter l'organisation de Telecom Valley, passer en revue les actions entreprises pour voir si elles collent toujours aux attentes des membres, lancer un sondage auprès des adhérents : ce sont des actions que Laurent Londeix avait annoncées en mars en abordant son mandat de deux ans de président. À cela est venu depuis se rajouter un challenge de taille : la labellisation le 12 juillet dernier du pôle SCS (Solutions Communicantes Sécurisées) en tant que pôle de compétitivité mondial. Une formidable occasion pour l'ensemble des membres de Telecom Valley de se retrouver autour d'un dynamisme du pôle SCS, comme l'a noté Laurent Londeix lors de la réunion Telecom Valley le 4 octobre à Amadeus, sur les priorités de l'association et la présentation du pôle SCS.
Le pôle SCS se retrouve aujourd'hui en tête des grands objectifs de l'association et au cœur même de son projet. "Telecom Valley veut être le moteur du pôle SCS en termes de montages de projets collaboratifs", a insisté Laurent Londeix. Pour cela, toute une série d'actions a été décidée. Une nouvelle Commission SCS va être mise en place. Sous la responsabilité de Bruno Delépine, elle aura pour mission de fédérer et faciliter les montages de projets pour les membres. Il s'agit d'autre part d'assurer une forte représentativité dans la gouvernance, mais aussi de mettre des ressources à la disposition des projets collaboratifs. Autre action inscrite : chercher toutes les opportunités de mutualisation des outils entre Telecom Valley et le pôle SCS."
Cinq autres objectifs ont également été déclinés […].
Communiquer sur les compétences et les réussites de l'association […]
Développer l'emploi […]
Stimuler et favoriser l'innovation […]
S'enrichir entre membres : "Le sondage que nous avons fait à partir du site Internet de Telecom Valley a montré que les adhérents avaient besoin de contacts avec les autres. Nous avons donc cherché à réinstaurer des réunions d'échanges sur des sujets de veille technologique. Chaque membre qui a quelque chose à dire doit pouvoir organiser une matinée ou une soirée sur un thème technique. Ce type de réunions peut avoir lieu au rythme d'une par mois, soit une dizaine dans l'année. Nous comptons également mettre en place une plateforme de travail collaboratif avec un annuaire des membres et des fonctions visant à faciliter les contacts, déployer et utiliser KMP, faciliter le montage de projets collaboratifs.
Se donner les moyens de nos ambitions […]
Encadré 8 : Extrait d’une newsletter TV, octobre 2005
Notons également que le logo du pôle SCS est la résultante d’un léger aménagement de la représentation de l’espace commun proposée par KMP.

Ici, les cylindres verticaux représentent les grands métiers du pôle et la flèche les chaînes de valeur qui le traversent.
Au niveau de la recherche publique d’autre part, nous pouvons constater que les acteurs commencent à s’approprier les concepts développés dans le cadre du projet. Plus spécifiquement, lors d’un forum organisé par le pôle SCS visant à présenter les activités de recherche aux acteurs industriels, le vice-président de l’Université de Toulon a proposé d’utiliser les fiches descriptives des organismes de recherche de KMP pour présenter l’ensemble des entités de la recherche publique. Toujours lors de ce forum, un acteur industriel (membre de France Télécom) a vivement sollicité les chercheurs en présence à utiliser la solution KMP pour se décrire. Au-delà, nous pouvons déjà noter l’appropriation des concepts ‘usages génériques’ et ‘usages applicatifs’ qui ont servi à programmer la journée ‘academic research forum’ organisée par le pôle SCS en étroite collaboration avec les chercheurs du site. Ceux-ci ont en effet souhaité articuler l’après midi autour de tables rondes traitant d’usages génériques tels la sécurité ou encore la mobilité.

En guise de synthèse, il nous semble primordial de revenir sur le processus de codification proposée dans le projet KMP qui a guidé l’évolution des boucles de co-conception. Comme nous l’avons montré dans la section 1.2.2.2., la codification suppose un processus d’articulation qui vise à convertir la connaissance tacite en connaissance explicite et un processus d’abstraction qui vise à identifier des catégories abstraites, facilitant la communication et la diffusion, notamment sous forme informatique.
Dans le cadre du projet KMP, les entretiens semi-exploratoires menés en 2002 et début 2003 ont permis de délimiter le projet : le domaine de référence et les acteurs (le cluster télécoms sophipolitain), les activités (différentes stratégies liées au nouage de partenariats), les logiques d’action qui sous-tendent ces activités et les flux d’informations nécessaires à la réalisation de ces activités. Cette première période correspond à la phase d’articulation.
Dans la mesure où l’objectif du projet est de favoriser la création de connaissances (en combinant des compétences) par le biais de partenariats, il s’agissait alors de proposer un référentiel (phase d’abstraction) qui permette ce repérage tout en fournissant les éléments de description nécessaires au choix du partenaire. Plus spécifiquement, nous avons montré que le repérage de la compétence, son évaluation dans un objectif de comparaison, puis son positionnement dans l’espace commun sont essentiels dans la mesure où ils permettent d’identifier le bon partenaire ou les combinaisons potentielles pertinentes.
Les processus de codification mis en œuvre dans KMP se sont donc articulés autour de trois niveaux :
Les acteurs
Les compétences
Les interactions c’est-à-dire leurs modes de coopération
Le tableau suivant met ainsi en évidence, pour chacun des niveaux identifiés, les éléments de connaissance codifiés, l’abstraction retenue, le type de connaissances codifiées et enfin les objectifs poursuivis par la codification. Rappelons que dans le cadre du projet, pour accroître les chances de réussite et d’évolution des éléments codifiés (cf. § 2.1.2.2.), nous avons privilégié la participation active des acteurs du terrain.

Éléments de connaissanceCodification retenueType de connaissances codifiéesObjectifs poursuivis1) les acteursOrganisations (rôle et statut) : entreprises, organismes de recherche, supports, facilitateursFiche entreprise
Fiches organismes de recherche
Fiches supports
Fiches facilitateurs
Ontologie des rôles et statutKnow whoDescription du partenaire :
pour permettre un premier élément de comparaison entre les acteurs
pour structurer le territoire (ex : requête sur les PME)Espace communChaîne de valeur : montre les complémentarités entre entreprises
Cluster : représentation de l’ensemble des acteurs du site
Pôle SCS : focus sur les complémentarités entre la recherche publique et la recherche privéeKnow who

Know whyIdentifier les frontières du collectif
Créer des liens : favoriser l’émergence d’une identité communautaire2) Les compétencesCompétencesUne compétence se définit comme une action qui mobilise des ressources pour créer un délivrable qui s’insère dans un système d’offre
Ontologie des compétencesKnow what (plus de précision grâce aux ontologies)Repérage des compétences dans l’espace communCompétences similaires vs compétences complémentairesCompétences similaires : même action / même ressource
Compétences complémentaires : même système d’offreKnow what
Know whyEffets de masse et manques
Visibilité du territoire
Émergence des grands types de combinaison et de la valeur créée par ces combinaisons3) Les modes de coopérationCompétences relationnelles des acteursLes scénarios d’usage
Les stratégies de coopération
Les savoir-faire en montage de partenariats
Ontologie des modes d’interactionKnow why
Know how

Know whatIdentifier les jeux d’acteurs (motivation)
Identifier les informations nécessaires au montage de partenariat notamment sur le choix des partenaires
Identifier le type de coopération mises en œuvreTableau 14 : Les éléments de connaissances codifiées dans le cadre du projet KMP L’implication des acteurs dans le processus de codification, les discussions suscitées autour des concepts de compétences, de similarité / complémentarité, et lors de l’élaboration des ontologies, ont entraîné des feed-back permanents entre connaissances tacites, articulées et abstraites (cf. § 2.1.2.2). Ces derniers ont ainsi permis une continuité de significations qui a enrichi les cadres d’interprétation des acteurs investit dans le processus de codification, notamment au niveau de la compréhension des caractéristiques du marché sophipolitain et des usages. Cette vision partagée du marché a véritablement facilité l’identification et l’évaluation des opportunités de combinaisons innovantes, ce qui a notamment servi de support pour la création du pôle de compétitivité SCS.

4.3. Les boucles de co-conception : le rôle des objets intermédiaires de conception
Le travail réalisé au sein du projet KMP montre le rôle primordial joué par certains objets et / ou concepts dans la coordination des acteurs membres de l’équipe de conception. Cette analyse s’accorde avec les travaux qui mettent en évidence le rôle primordial joué par des objets intermédiaires [Vinck, 1996 ; Jeantet, 1998] dans les processus de conception. Notre objectif consiste ici à détailler la façon dont ces objets intermédiaires ont émergé puis à mettre en évidence leur participation dans trois principaux processus à l’œuvre dans l’action : la représentation, la médiation et la traduction entre les acteurs de l’équipe de conception du projet KMP.
4.3.1. Les scénarios d’usage
Dans sa quête de performance des systèmes d’information, le travail de conception s’est progressivement enrichi de nombreuses réponses méthodologiques [Thévenot, 2001] ouvrant la voie d’une conception intégrant des considérations à la fois d’ordre technologique et organisationnel [Salembier, 2002]. La réalisation d’une « maquette » ou d’une modélisation de l’organisation d’accueil, au moment de la conception, est souvent présentée comme une étape de la mise en cohérence entre d’une part la solution technologique mise en place, notamment ses fonctionnalités, et d’autre part, un ensemble de « contraintes » qui caractérisent son contexte d’implantation [Thévenot, 2001]. Ce centrage sur les utilisateurs, leurs attentes, le contexte dans lequel ils évoluent, a conduit de nombreux auteurs à préconiser le recours à une méthode des scénarios (cf. § 3.1.1.2.). Dans cette dynamique, l’équipe Acacia de l’INRIA a proposé d’utiliser cette méthode pour comprendre les utilisateurs dans leur situation de travail, c’est-à-dire les situations dans lesquelles ils vont utiliser la solution KMP.
4.3.1.1. Apports de la théorie de la cognition distribuée aux scénarios d’usage : la vision des informaticiens
Comme nous l’avons précédemment montré, la méthode des scénarios utilisée par la communauté informatique s’appuie sur la théorie de la cognition distribuée pour proposer des items caractérisant le système fonctionnel au sein duquel va se construire l’interaction entre la technologie à implémenter et ses utilisateurs (cf. § 3.1.1.2.). Sur cette base, les concepteurs disposent de points d’ancrage théoriques pour décrire de façon approfondie un micro niveau de collectif et construire des variables destinées à recueillir les données empiriques pour élaborer les scénarios.
Plus spécifiquement, pour chaque catégorie de scénario d’usage identifié, il s’agit d’analyser les pratiques récurrentes de travail des futurs utilisateurs en accordant une place toute particulière à leurs dimensions interactive (interactions sociales et matérielles) et cognitive. Globalement, il s’agit pour chaque scénario : (i) d’identifier le ou les utilisateurs cibles ainsi que les différents acteurs parties prenantes du scénario en précisant leur statut, rôle formel, implication réelle, modalités d'interaction avec l'utilisateur cible ; (ii) de décomposer chaque scénario en activités génériques puis directement en tâches locales de travail pour (iii) décrire leur processus de mise en œuvre et surtout comprendre de quelle manière ces dernières sont habituellement conduites dans la pratique, notamment du point de vue de la structure, du traitement et de la coordination des informations requises.
Le tableau ci-après inventorie les principales données que nous avons recueilli dans KMP pour élaborer un modèle des activités ou des tâches et construire un premier niveau de scénarios : les scénarios de tâches.

Besoin
Identification des besoins et description des activités génériques pour déterminer des scénarios génériquesActeurs parties prenantes du scénarioTâches à réaliser par les utilisateurs ciblesRessources mobilisées dans la réalisation des tâchesInformations et flux d’informations caractéristiquesLes tâches réalisées et leurs outputsProblèmes rencontrés lors de la mise en œuvre des tâches



- individuels ou collectifs (services ou organisations)
- internes ou externes à l'organisation
- appartenant ou non à la carte générale de Telecom Valley


Identification et description des tâches
la panoplie des actions possibles ; les éléments qui en garantissent la réussite
Type de déroulement (ex. : séquentiel, itératif, en parallèle)
Ressources financières

Ressources technologiques ou matérielles

Ressources humaines

Ressources organisationnelles

Ressources internes et/ou externes internalisables

Préciser leur nature, l'objectif de leur utilisation et leur finalité, leur distribution entre les acteurs qui sont parties prenantes de l’activitéType d’informations recherchées

Type d’informations fournies

Il s'agit de préciser le type d'informations, les contenus et structures des informations propres à la réalisation de chacune des tâches: informations nécessaires, degré de description requis, structure des informations lorsqu'elle s'avère spécifique.

Les modes d'interaction nécessaires ou souhaités (ex.: informations à destination de partenaires privilégiés, informations en push ou pull).
Identification des délivrables

Préciser le(s) type(s) de délivrable(s) (ex. : document), le design requis

Le(s) type(s) de bénéficiaire(s), leur spécificité, …

tout ce qui peut aider à préciser les prescriptions des utilisateurs en termes de structure et de contenu de l’information requisC’est à ce niveau qu’il sera possible de renforcer ces variables avec celles de la structurationTableau 15 : première grille d’opérationnalisation des variables de la cognition distribuée
Même si la méthode présentée par l’équipe Acacia nous paraissait essentielle, il nous semblait pour autant que les variables construites en référence à la cognition distribuée méritaient d’être enrichies par d’autres, destinées à comprendre de quelle manière l’interaction outil/utilisateur est encastrée dans un contexte ou espace social plus vaste. En effet, lors des interactions avec les informaticiens du projet, il apparaissait que les variables proposées ne permettaient pas de prendre en compte l’encastrement des tâches et des activités dans des profondeurs organisationnelles et institutionnelles. En particulier, ces tâches s’inscrivent dans des activités et un contexte organisationnel plus large que la situation de travail. De ce point de vue, nous avons proposé d’enrichir la méthode des scénarios par la théorie de la structuration appliquée aux organisations et aux technologies [Pascal et Rouby, 2006].
4.3.1.2. Apports de la théorie de la structuration au modèle des scénarios : la vision des gestionnaires
La théorie de la structuration appliquée à l’informatisation en milieu organisationnel présentée dans la section 1.3. nous semblait riche d’enseignements pour le modèle des scénarios. Elle propose en effet de connecter l'interaction usager/technologie, par essence locale, géographiquement et temporellement située, avec les règles qui caractérisent l’organisation au sein de laquelle elle se construit. Mobilisées et actualisées par des utilisateurs « compétents » au moment de leur interaction avec la technologie, ces règles organisationnelles méritent d’être analysées au moment de la conception. Pour les concepteurs, cela signifie obtenir une représentation des différentes propriétés structurelles susceptibles d’être énactées par les utilisateurs dans leurs interactions futures avec la technologie et opérationnaliser les variables qui caractérisent tout système social, y compris organisationnel, dans la tradition structurationniste.
Au final, la prise d’appui sur la théorie de la structuration est porteuse à un double point de vue, comme l’illustre le schéma suivant :

Figure 31: la théorie de la structuration : un apport à un double niveau
Elle permet d’identifier le contexte pertinent à l’échelle duquel l’usage de la technologie va prendre sens et se construire. Une fois identifié le contexte ou niveau organisationnel pertinent, elle suggère d’analyser les propriétés structurelles qui le caractérisent c’est-à-dire de renseigner les trois dimensions du structurel telles que définies par Giddens : la signification, la légitimation, la domination.
Pour appréhender ces dimensions dans le cadre du projet KMP, nous avons pris appui sur les modalités suivantes :
Schèmes interprétatifs (pour renseigner la dimension signification). Ce sont les modes de raisonnement, les cadres de référence, les représentations collectives qui guident les actes des individus. Ils contribuent à produire une représentation ordonnée rationnellement de l'action, de son déroulement et de ses conséquences en fonction d'une finalité donnée. Dès lors, il s’agit de révéler le sens donné par les futurs utilisateurs : à l’activité à laquelle va prendre part la solution technologique à concevoir, à son processus de mise en œuvre (ses étapes, ses acteurs, les informations qu’elle nécessite, le niveau de détail requis), à ses retombées. Il s’agit aussi de révéler comment les utilisateurs perçoivent l’intérêt et les enjeux de la solution à implémenter, ses propriétés technologiques.
Normes (pour renseigner la dimension légitimation). Ce sont les normes d’action, les codes moraux, valeurs, conventions qui justifient les actes et légitiment les résultats [Chevalier-Kuszla, 1998]. En définitive, il s’agit de révéler ce qu’il est permis et/ou normal et/ou valorisé, de faire ou de ne pas faire, concernant la conduite des activités auxquelles va prendre part la solution technologique.
Facilités (pour renseigner la dimension domination). Elles ont trait à la répartition des ressources d’allocation et d’autorité que les acteurs mobilisent dans l’action, inhérente à l'institutionnalisation des rôles. Les ressources d'allocation sont constituées des divers moyens matériels ou immatériels accordés aux acteurs pour qu'ils contrôlent des objets. Les ressources d'autorité sont l'expression du pouvoir, elles permettent le contrôle des personnes ou des acteurs de l'organisation. Le pouvoir selon Giddens est considéré positivement comme la capacité à produire des résultats. Il s’agit donc de comprendre la répartition des ressources d’allocation et d’autorité entre les acteurs prenant part à l’activité.
La prise d’appui sur la théorie de la structuration permet aussi d’appréhender comment les tâches, qui par définition sont réalisables à un niveau local, prennent place dans le structurel de l’organisation d’accueil. La tâche telle que décrite par les variables de la cognition distribuée n’est pas analysée comme suspendue dans le vide mais comme partie intégrante d’un processus dont la configuration se comprend et s’explique dans un contexte organisationnel plus large que caractérisent des propriétés structurelles analysées à l’aide des trois modalités précédentes. Il s’agit plus particulièrement :
des enjeux, contours et contenus du processus dans lequel les tâches prennent place, définis en regard des schèmes interprétatifs étudiés à l’échelle du contexte organisationnel ;
de la définition des rôles ainsi que des droits et des devoirs attachés à ces rôles qui se comprennent en référence aux normes d’action propres à l’organisation ;
des moyens matériels et immatériels alloués à ses parties prenantes, de même que leur autonomie décisionnelle, en référence à la manière dont les ressources d’autorité et d’allocation sont réparties à l’échelle de l’organisation.
4.3.1.3. La combinaison des approches
En définitive, le croisement de la théorie de la cognition distribuée et de la structuration préconisé dans le projet KMP peut être schématisé de la façon suivante :

Figure 32 : Synthèse méthodologique
Les scénarios ne sont habituellement pas construits sur les fondements de la théorie de la structuration. Or, selon nous, une approche structurationniste du scénario est particulièrement féconde car elle permet d’insérer un niveau d’analyse intermédiaire entre d’une part les grandes activités en support desquelles la solution technologique à concevoir doit être utilisée et les tâches très spécifiques réalisées à des niveaux locaux (services, équipes de travail). Or, c’est bien l’intégration de ce niveau d’analyse intermédiaire qui permet : (i) d’identifier les logiques d’action et donc, les contextes pertinents à l’échelle desquels la technologie à implémenter doit être pensée et (ii) de proposer, en réintégrant les items de la cognition distribuée, une analyse spécifique de la façon dont ces logiques d’action sont mises en œuvre dans la pratique au sein de processus (soit encore d’enchaînement de tâches).
4.3.1.4. Apports de la méthode des scénarios à l’expérimentation KMP
La méthode des scénarios appliquée à l’expérimentation KMP s’est articulée autour de deux principaux résultats.
Au-delà de l’analyse des besoins : l’identification de logiques d’action.
À l’origine du projet, trois scénarios génériques ont été identifiés, à partir d’une série d’entretiens exploratoires réalisés auprès des utilisateurs potentiels (entreprises, organismes de développements régionaux et des organismes de recherche). Cette première phase de familiarisation a permis d’identifier:
des besoins (ou scénarios génériques) exprimés par les acteurs organisationnels présents sur le site Sophipolitain et susceptibles d’être facilités par la solution KMP :
S1 : avoir et donner une visibilité générale de la Telecom Valley.
S2 : faciliter les partenariats interentreprises.
S3 : faciliter les partenariats recherche publique / recherche privée.
des activités génériques dédiées à ces besoins: activité de marketing territorial et de développement stratégique du territoire (S1), nouage de partenariats industriels (S2), nouage de partenariats en R&D (S3) ;
des utilisateurs pilotes supposés : les institutionnels locaux pour S1, les industriels pour S2, les industriels et les organismes de recherche pour S3.
Toutefois, l’identification de ces activités, à un niveau très générique, et leur décomposition en tâches réalisables à des niveaux très locaux, c’est-à-dire dans les services ou équipes des organisations pilotes, ne nous semblait pas suffisante. Une approche structurationniste nous semblait nécessaire pour appréhender un niveau d’analyse intermédiaire : les logiques d’action qui sous-tendent la mise en œuvre des activités dans les organisations d’accueil. Ainsi, une série d’entretiens semi-directifs, construits à partir des variables de la structuration et des modalités correspondantes, a été menée auprès des responsables des organisations pilotes. Leur analyse a ainsi montré que (cf. § 4.2.2.) les acteurs du cluster télécoms sophipolitain, pourtant engagés dans un même scénario générique, pouvaient poursuivre des stratégies très distinctes. À un niveau de détail encore plus fin, nous avons mis en évidence et ce, pour chacune des logiques d’action identifiées, un ou des processus clés de mise en œuvre (cf. § 4.3.1.4., tableau 16 : scénarios génériques, logiques d’action et processus clés). .

Besoin ou scénario générique 1
avoir et donner une visibilité générale de la Telecom Valley



Activité : marketing territorial et développement stratégique du territoireBesoin ou scénario générique 2
faciliter les partenariats interentreprises



Activité : nouage de partenariats industrielsBesoin ou scénario générique 3
favoriser la coopération recherche publique / recherche privée

Activité : nouage de partenariat en R&DLogiques d’actionStratégie collectiveStratégie individuelleStratégie individuelleStratégie de communication(1) Sous activités ou processus:
- Valoriser Telecom Valley (logique de marketing territorial) en proposant une représentation du cluster télecoms
(3) Sous activités ou processus :
- Valoriser les compétences collectives de l’entreprise
- Rendre ses compétences visibles
- Communiquer de façon proactive avec ses partenaires privilégiés pour les informer sur les projets(5) Sous activités ou processus :
- Valoriser des compétences collectives
- Communiquer de façon proactive avec ses partenaires privilégiés
Stratégie de développement(2) Sous activités ou processus :
- Renseigner des projets ouverts
- Échanger des pratiques organisationnelles communautaires
- Construire proactivement des marchés et des usages STIC
- Structurer le cluster(4) Sous activités ou processus :
- Rechercher un partenaire
- Identifier des partenaires potentiels
(6) Sous activités ou processus :
- Rechercher un partenaire
- Identifier des partenaires potentiels
- Définir une trajectoire d’évolution
- Répondre à des appels d’offre
- Faire de la veille environnementale Tableau 16 : Scénarios génériques, logiques d’action et processus clés
Cette analyse nous alors permis de reconfigurer le portefeuille d’organisations pilotes et ainsi de mieux délimiter les contextes pertinents d’usage de la solution KMP. Pour rappel (cf. § 4.2.2.), le scénario 1, a priori dédié aux institutionnels locaux en charge de la promotion du site sophipolitain vis-à-vis de l’étranger, s’est avéré intéresser des organisations industrielles pourtant dès le départ « cantonnées » au scénario 2 et 3. En particulier, une des entreprises pilotes s’est engagée dans une stratégie de développement collectif, se souciant fortement du développement du cluster et du pôle microélectronique en général, avec l’objectif avoué de rester sur le site sophipolitain et de communiquer l’intérêt d’une non délocalisation à sa maison mère. La valorisation du site sophipolitain se comprend et se met donc en œuvre dans différents contextes pertinents. Il comprend deux types d’acteurs :
les institutionnels locaux, véritable interface entre le site et l’étranger, qui s’engagent dans des stratégies de communication collective
certaines entreprises industrielles voir même équipes de recherche appartenant à un groupe extérieur à Sophia Antipolis qui s’engagent dans des stratégies de développement collectif.
Autrement dit, la méthode des scénarios mise en œuvre dans l’expérimentation KMP nous a permis, pour l’activité générale « valorisation du site sophipolitain », de comprendre qu’elle devait être étudiée à l’échelle de plusieurs contextes caractérisés chacun par une certaine façon de concevoir la valorisation du site, ses enjeux, ses modalités de mise en œuvre.
Des logiques d’action au contexte pertinent
Ici, les trois variables de la structuration sont essentielles pour analyser le contexte pertinent. Nous avons vu que la solution KMP suppose l’édition de compétences collectives au niveau des équipes par les responsables d’équipe eux-mêmes (système décentralisé seul capable d’assurer une mise à jour effective). Toutefois, établir les scénarios d’usage en n’interrogeant que les responsables d’équipe auraient été dangereux. En effet, la cartographie des compétences collectives dépend en grande partie de la stratégie de communication de l’organisation dont le responsable d’équipe ne peut avoir qu’une idée très partielle. Il convient donc d’intégrer à la définition des scénarios d’usage les différents niveaux organisationnels et de les analyser en termes de « structurel ».
Ceci peut s’illustrer comme suit :
Que signifie pour une entreprise « communiquer sur ses compétences » ? Quelle est la visibilité qu’elle souhaite donner (degré de précision tout particulièrement permis grâce aux ontologies : en effet, plus on est haut dans l’ontologie, moins les informations fournies sont précises) ?
Quelles sont les ressources allouées aux stratégies de communication ?
Présence ou non d’un service de communication
Saisie et validation des compétences plus ou moins décentralisée
Degré d’indépendance du site sophipolitain en matière de communication dans le cas d’une filiale dont la maison mère est extérieure au site. Il est intéressant de noter ici qu’il a été décidé qu’une entreprise pilote qui avait une stratégie de communication (1) très centralisée au niveau de sa maison mère en dehors du cluster et (2) très protégée (issue du domaine militaire) quitte le projet au stade de la conception. En effet, il aurait été nécessaire d’intégrer aux scénarios d’usage les services de communication de la maison mère, ce qui, compte tenu du nombre de pilotes, aurait probablement compliqué la tâche à ce stade du projet.
Quel système de légitimité (droits et obligations) est attaché aux stratégies de communication ? À ce niveau, le contexte pertinent n’est plus l’organisation mais le cluster lui-même. Comment s’assurer que « les déclarations des acteurs sont justes » ? Notons ici que TV, comme toute communauté, a toujours développé des règles d’appartenance, et certaines ont émergé progressivement, avant KMP, comme le trophée CLIPSAT (récompensant le fournisseur de la TV le mieux classé) ou le « prix de l’innovation » (récompensant le projet le plus original dans le domaine des Télécom ou services reliés). Cependant, la codification de ces règles de coopération s’est rapidement imposée comme une condition sine qua non à la réalisation de KMP. TV a par exemple modifié son trophée CLIPSAT en ajoutant des requêtes sur la précision, l’authenticité, la pertinence de la description et la mise à jour des compétences dans la base KMP par les acteurs. Quand les entreprises étaient en forte situation de concurrence comme les SSII, elles ont décidé de définir ensemble les règles de bonne conduite, à la fois dans le niveau de détail de la description et dans la construction des ontologies.
La définition des contextes pertinents et la mise en évidence, pour une seule activité « saisie des compétences » d’une pluralité de structurels, nous a conduit à proposer un système très flexible quant :
au degré de précision donné au moment de la cartographie des compétences,
à la centralisation de la validation (possibilité de définir des droits différents aux utilisateurs d’une même organisation). Pour certaines organisations, les chefs d’équipes peuvent choisir de saisir et valider eux-mêmes les compétences saisies. Pour d’autres, la saisie des compétences peut être réalisée par le chef d’équipe mais validée par une seule et même personne au niveau n+1 pour l’ensemble de l’organisation. Enfin, dans certaines organisations, la saisie et la validation est réalisée par une seule personne (cas plutôt rare et pour le moment limité à des PME ou des laboratoires de recherche de petite taille).
au contact donné sur la compétence : pour certaines organisations, le chef d’équipe apparaît directement en contact, pour d’autres, une seule personne apparaît en contact pour toutes les compétences (généralement un alias).

Une fois identifié et analysé le ou les contextes pertinents, il est alors possible de procéder à l’analyse des tâches.
Des processus à l’analyse des tâches et à l’identification des spécificités fonctionnelles
Une fois identifié pour chaque logique d’action les contextes pertinents et processus clés de mise en œuvre, nous avons été en mesure de comprendre les pratiques à un niveau de détail plus fin. C’est à ce niveau de détail que les items construits à partir de la cognition distribuée ont été utiles car ils nous ont permis de questionner les acteurs à propos des conditions de mise en œuvre opérationnelle des processus (cf. § 4.2.3.). En permettant de comprendre de quelle manière ces processus, faisant sens et construits en regard d’une logique d’action spécifique, sont conduits dans la pratique, il a été possible de révéler la structure et le contenu des informations requis dans la solution KMP et donc de construire les spécifications fonctionnelles du site (cf. annexe 3 : exemple de scénario d’usage). Par exemple, concernant les pratiques de valorisation de la Telecom Valley, la méthode des scénarios d’usage nous a permis de montrer que les décideurs institutionnels, et plus particulièrement les chargés de missions qui ont en charge le marketing territorial, devaient pouvoir bénéficier de fiches descriptives des entreprises dans lesquelles la présence de personnel étranger était renseignée. De leur côté, les responsables d’entreprises engagées dans une stratégie de développement collectif devaient pouvoir bénéficier d’informations sur la structure du cluster sophipolitain. Cependant, cette demande était équivoque : pour certaines organisations, il s’agissait de « connaître les entreprises présentes sur le site », pour d’autres « connaître les technologies présentes sur le site et leurs synergies », pour d’autres encore « identifier les domaines où est atteinte une masse critique », pour d’autres enfin « détecter les complémentarités entre des technologiques prometteuses ». En analysant les attentes révélées à travers les logiques d’actions et leurs processus de mise en œuvre, nous avons fait émerger une nouvelle fonctionnalité de KMP : le calcul sur les similarités et complémentarités des compétences, les uns pouvant y observer des effets de masse sur le cluster télécoms sophipolitain, les autres des complémentarités technologiques prometteuses (cf. § 4.2.3.). L’intérêt de cette spécification fonctionnelle ne serait pas apparu si les scénarios étaient demeurés construits essentiellement sur les fondements de la cognition distribuée.

Comme nous venons de le montrer, la méthode des scénarios d’usage, au départ investie par l’équipe Acacia a très vite été appropriée par les chercheurs en sciences de gestion. Les scénarios d’usage sont ainsi apparus comme les premiers objets intermédiaires lors des réunions de l’équipe opérationnelle. En effet, la construction de ces scénarios a été l’objet de débat où chaque membre du projet donnait son point de vue sur la méthode. Très rapidement, nous avons convergé vers une méthode qui articule les courants de la cognition distribuée et de la structuration. Aujourd’hui, les informaticiens de l’équipe KMP se sont appropriés la méthode des scénarios que nous avons proposée comme l’atteste cet extrait d’un article publié par l’équipe Acacia.
Une manière significative de prendre contact avec les usage(r)s et de garder ce contact est de communiquer par scénarios d’usage. Dans KmP, nous avons repris la méthode des scénarios que nous avions utilisée dans le projet européen IST CoMMA (cf. Gandon, 2002 ; Giboin et al., 2002). Cette méthode a été adaptée à la nouvelle application et à l’entrée de nouveaux analystes des usages : gestionnaires et économistes (cf. Pascal & Rouby, 2004). L’ouverture à ces analystes a permis d’obtenir une vue plus complète des usage(r)s, une vue qui reflète davantage les aspects organisationnels, fondamentaux dans KmP. Les scénarios de KmP ayant été élaborés à partir d’entretiens avec des utilisateurs réels décrivant des besoins réels, cela a conforté la prise de contact, mais aussi son maintien. Ces représentations avaient en effet une valeur forte pour les usagers directeurs.
Encadré 9 : extrait d’article de l’équipe Acacia [Giboin et al., 2005]
Ainsi, la méthode des scénarios a joué un double rôle : elle a permis, à travers les nombreux échanges entre l’équipe Acacia et le Rodige, de construire des savoirs partagés entre les acteurs ; au-delà, elle a organisé les interactions entre ces deux équipes, les résultats des scénarios d’usage construit par l’équipe de gestion étant par la suite traduit en langage informatique par l’équipe d’informaticiens.
4.3.2. Les ontologies
À l’origine, ce sont les informaticiens de l’équipe Acacia de l’INRIA qui ont proposé d’utiliser les ontologies dans le cadre du projet KMP. Cette équipe travaillait en effet sur les technologies du web sémantique – imaginé au sein du W3C par Tim-Berners Lee – dont l'objectif est de tendre vers un Web dont la sémantique des données est à la fois compréhensible par des utilisateurs humains et appréhendables par des entités informatiques (agents, moteurs de recherche, serveurs d'informations). Dans la perspective retenue par ces acteurs, les ontologies ont joué un rôle central pour le marquage sémantique des données Web qui va ouvrir de nombreuses prospectives d'amélioration de la qualité des moteurs de recherche. En effet, la construction d’une ontologie doit permettre une aide à la formulation des requêtes, une aide à l’indexation des documents, et une aide à la formulation/affichage des réponses.
Initialement, ces acteurs considéraient, de façon plus ou moins implicite, que le monde devait pouvoir être décrit en une seule ‘ontologie’, qui devait ainsi pouvoir servir à toutes les applications. En d’autres termes, ils croyaient en l'universalité et en la réutilisabilité des ontologies et concentraient l’essentiel de leurs efforts de recherche sur les moyens d’une formalisation logique d’un certain nombre de contenus ou de systèmes d’index de ces contenus permettant à des agents logiciels de répondre automatiquement aux requêtes complexes de leurs utilisateurs. Leur vision était donc avant tout celle d’un Web Sémantique Formel principalement tourné vers les besoins d’exploitation automatiques servis par des programmes informatiques [Zacklad, 2004].
Dès lors, dans les premiers temps de la conception, l’équipe Acacia, chargée de l’élaboration de l’ontologie (sous-projet 1) relative aux compétences en télécommunications, a proposé d’utiliser des sources telles que la classification UDDI (Universal Description, Discovery and Integration), les technologies clés du Ministère de l'industrie et l'ontologie Candle-1 fournie par l'ENST Bretagne pour construire l’ontologie initiale.
Cependant, cette vision des ontologies ne coïncidait pas avec celle de notre équipe de gestion. En effet, dans la vision du monde retenu par l’équipe d’informaticiens, la connaissance pouvait être détachée de tout contexte. En ce sens, la création d’ontologie universelle était possible. Or, comme nous l’avons montré dans la section 2.1., nous appréhendons la connaissance dans sa dimension contextuelle et relationnelle ce qui nous incite à définir la codification comme un processus complexe et non neutre (cf. § 2.1.2.2.). Dans la perspective que nous retenons, les codes comprennent intrinsèquement une représentation du monde. En ce sens, la création des ontologies et des proximités sémantiques entre les concepts devait, selon notre équipe, tenir compte à la fois des situations d’usage et des cadres de référence des acteurs. Elle nécessitait donc la compréhension de la finalité de l’action dans lesquelles elles seraient employées et la prise en compte du contexte d’interactions des acteurs, de leur cadre transactionnel. En d’autres termes, elle devait s’articuler autour d’une compréhension fine des activités et des tâches des acteurs, elles-mêmes consubstantielles d’un contexte organisationnel plus large. Cette position se justifiait d’autant plus que la nature du phénomène étudié, les partenariats entre firmes et entre firmes et organismes de recherche, était relativement complexe.
Ainsi, les premières réunions ‘ontologies’ de l’équipe de conception ont été l’occasion de confronter les points de vue des acteurs sur cet objet. Rapidement, l’équipe d’informaticiens a accrédité notre perception des ontologies et a souhaité nous intégrer à ce sous-projet (SP1) comme « expert maîtrisant les concepts organisationnels reflétant les usagers » [Giboin et al., (équipe Acacia), 2005].
« À l’issue de la première année du projet KmP (décembre 2003), un nouvel échéancier SP1 avait été établi, qui tenait compte de la forte coordination entre SP1 et SP2 (équipe de gestion), concrétisant ainsi le mode de fonctionnement qui avait été bien établi lors de la première année » [extrait du rapport intermédiaire RNRT de décembre 2003].
Nous avons ainsi réorganisé les ontologies de KMP de sorte qu'elles soient plus proches des analyses d’usage et des modèles de gestion et d’économie nécessaires à la finalité de la solution. Cela a conduit à une structuration de l'ontologie autour de deux « modules » : le modèle de compétences (avec les concepts d’action, délivrable, système d’offre et ressources - technologiques, scientifiques, managériales-) et le modèle des coopérations (ontologie des échanges).
 EMBED Diapositive Microsoft PowerPoint 
Figure 33 : Architecture des ontologies KMP
De plus, nous avons rapidement organisé des groupes de travail avec les usagers pilotes pour construire une ontologie minimale des ressources technologiques. Cette co-construction des ontologies avec les acteurs pilotes s’est effectuée en trois temps : groupe de travail impliquant des SSII pour la partie ressources informatiques de l'ontologie (3 réunions) ; groupe de travail de managers d'une même entreprise donneur d'ordres pour la partie ressources microélectronique (2 réunions) ; représentants de la Telecom Valley pour la partie ressources télécommunications (4 réunions). Une fois les racines identifiées et validées par les utilisateurs, le peuplement des ontologies s’est fait de façon incrémentale au fur et à mesure du travail de cartographie.
La deuxième année du projet a vu l’enrichissement et la réorganisation partielle des ontologies de KMP, en collaboration étroite avec les utilisateurs pilotes de KMP et leurs représentants, membres de l’équipe opérationnelle. L’objectif était d’adapter davantage les ontologies aux besoins des utilisateurs pilotes industriels, mais aussi de satisfaire les besoins des utilisateurs académiques qui, le temps étant venu d’implanter le scénario 3 de KMP, entraient en force dans le projet et devaient pouvoir disposer des termes et concepts nécessaires pour décrire leurs compétences, essentiellement des termes du domaine relatifs aux ressources scientifiques. Les utilisateurs académiques étant moins disponibles que les utilisateurs industriels ou institutionnels, le peuplement de l’ontologie des ressources scientifiques a donc été plus long.
Au final, en Mars 2005, l’ontologie comptait 1141 concepts répartis sur 16 niveaux. Le schéma ci-dessous montre graphiquement l’évolution dans le peuplement des ontologies.

Figure 34 : Evolution des ontologies au cours du projet KMP
L’analyse de la construction du concept d’ontologie puis des ontologies en tant que telles nous permet d’inférer à ce stade que les ontologies ont véritablement joué le rôle d’objet intermédiaire de la conception. Leur développement s’apparente à celui des scénarios d’usage dans la mesure où, ici encore, il s’agissait au départ de concepts développés par les informaticiens. Dans un second temps, l’appropriation puis l’adaptation de ces concepts par l’équipe de gestionnaire a conduit à des déplacements et transformations dans les savoirs des acteurs conduisant à la création d’un savoir collectif partagé qui combine à la fois les représentations de l’équipe de gestion et de celle des informaticiens. In fine, ces objets intermédiaires ont véritablement joué un rôle de médiation en supportant les points de vue des acteurs.

Au terme de cette analyse sur les scénarios d’usage et les ontologies, nous pouvons mettre en évidence l’importance de ces objets intermédiaires dans le processus de conception du projet KMP. Ces objets ont en effet été déterminants dans la coordination des acteurs du projet à la fois parce qu’ils participent aux processus de médiation / traduction / représentation mais aussi car leurs inputs ont directement servis de supports aux interactions. En ce sens, les scénarios d’usage ont permis de construire les spécifications fonctionnelles de l’outil, qui ont servis, avec les ontologies, de base pour la construction de l’artefact c’est-à-dire du prototype. Ainsi, ces deux objets intermédiaires ont été incarnés très rapidement sous la forme des différents prototypes proposés dans KMP, prototypes qui ont largement acquis l’adhésion des usagers. Pour Giboin et al. [ðibid.]ð (équipe Acacia), ces objets ont permis « la prise et le maintien » du contact entre l équipe de conception et les usagers via les différents prototypes. Dans le cas des ontologies, cette adhésion a largement débordé celle du prototype puisque les acteurs du terrain ont souhaité en poursuivre le peuplement pour qu’elle devienne une référence nationale comme l’indique l’extrait suivant.
Concernant KMP, sa richesse tient dans son ontologie, dans sa capacité à décrire toutes les compétences et technologies présentes dans le monde des STIC. Cette ontologie doit être maintenue et il nous faut en faire une référence au niveau français."
Encadré 10 : Extrait d’une newsletter TV d’Octobre 2005
Ceci nous amène alors à nous interroger sur le rôle de certains objets dans l’appropriation par les acteurs du terrain de la solution à venir.
4.4. Les trajectoires d’usage : le rôle des objets frontières
Dans la lignée de l’école de la traduction, Star et Griesener [1989] ont mis en évidence le rôle de certains objets, nommés objets frontières, dans la constitution d’un réseau sociotechnique qui accompagne un projet d’innovation (cf. § 3.1.2.2.). Dans le cadre du projet KMP, nous avons également observé le rôle de certains concepts et objets dans l’appropriation par les usagers de la solution à venir. Ici, notre objectif consiste dans un premier temps à mettre en évidence le rôle de certains objets dans l’adhésion des acteurs du terrain au projet en développement, c’est-à-dire dans l’élargissement des boucles d’intéressement. Dans un second temps, nous montrerons le rôle de ces objets frontières dans la convergence des trajectoires de la conception et des usages.
4.4.1. Le rôle des objets frontières dans les processus d’intéressement
Dans cette section, notre objectif consiste à mettre en évidence comment les concepteurs ont créé les conditions pour qu’un processus d’intéressement des acteurs du terrain se mette en place autour des objets et concepts clés du projet KMP. En d’autres termes, il s’agit de montrer comment l’adoption-adaptation des objets développés dans KMP a permis la construction d’un réseau sociotechnique apte à recevoir la solution. Notre analyse s’articulera autour du concept de cartographie, des différentes représentations de l’espace commun, du modèle des compétences, des concepts de similarité et de complémentarité et enfin des fiches descriptives des entreprises et organismes de recherche.
4.4.1.1. Le concept de cartographie
Le concept de cartographie a été à l'origine des premières interactions entre l'équipe de concepteurs (alors relativement réduite) et les futurs usagers de la solution (essentiellement la commission développement de TV). En effet, les institutionnels et au-delà l’ensemble de la communauté industrielle de TV désiraient obtenir des informations fiables et actualisées sur les compétences présentes sur le territoire sophipolitain (cf. § 4.2.1.). Dès les prémices, ce concept est apparu comme un premier objet d’intéressement entre les communautés industrielle / institutionnelle et l’équipe projet.
Puis, en 2002, l'idée d'effectuer une cartographie des compétences en télécommunications s'est précisée et est devenue le point de rencontre entre une équipe de recherche fortement intéressée par les problématiques liées aux compétences (Rodige) puis une seconde équipe spécialisée dans la conception et le développement de méthodes et d'outils de gestion de connaissances (Acacia). Plus qu’un simple point de rencontre, ce concept est très vite devenu déterminant comme support à l’ensemble des réunions de l’équipe de conception et également comme objectif à réaliser.
Au-delà, le concept de cartographie s'est révélé être essentiel pour l'intéressement des usagers au projet KMP tout au long de la première boucle de co-conception. Nous pouvions en effet comptabiliser, en juin 2002 (CR 18 juin 2002), 8 projets de cartographie de la région PACA, allant du pôle télécoms à celui des biotechnologies. Le concept de cartographie est ainsi très vite devenu une priorité non seulement pour la commission développement de TV mais également pour la commission partenaire et d’autres membres de l’association TV (Eurécom, CCI, CAD, Club Hitech).
La cartographie des compétences apparaît donc comme le premier concept d’intéressement entre l’équipe de conception et les usagers. Il a été déterminant puisqu'il a conduit à l'adhésion des donneurs d'ordre du cluster (commission partenaire), acteurs majeurs de la dynamique locale. Ce sont d’ailleurs ces acteurs, et plus particulièrement le responsable de la sous-traitance de chez Amadeus qui ont convaincu des SSII, au départ hostiles au projet, de devenir pilotes. Cet acteur a en effet été un puissant porte-parole de par sa légitimité en tant que responsable de la commission partenaire mais aussi grâce à sa position sur le site en tant que premier donneur d’ordre des SSII : « notre entreprise est une société qui avait un véritable plan d’embauche de 400 ingénieurs, et depuis le 11 septembre, cela s’est arrêté. Je pense que le paysage de Sophia va changer : il y a des sociétés qui ne pourront pas s’en sortir, elles ont trop misé sur nous ».
Le concept de cartographie est également à l'origine des premières interactions entre la communauté de la recherche publique et l'équipe de conception. Le besoin de cartographier cette communauté est en effet apparu dès les premières réunions organisées au sein de la commission partenaire de TV par le responsable de la commission recherche, également chercheur à l’Institut Eurécom (cf. § 4.2.1.). Il s’est par ailleurs fait ressentir dans les premiers entretiens exploratoires menés auprès d’industriels. Ces entretiens soulignaient les problèmes de communication entre les organismes de recherche locaux et les entreprises : « il est souvent plus facile d’aller chercher un partenaire aux Etats-Unis que de l’autre côté de la rue » (Responsable R&D d’Amadeus).
En 2003, les premières présentations de KMP auprès de la communauté de la recherche publique ont été effectuées. Ces présentations ont bénéficié majoritairement aux différents services de valorisation de l'INRIA (Institut National de Recherche en Informatique et en Automatique), de l'UNSA (Université de Nice Sophia-Antipolis) et de l'institut Eurécom, ainsi qu'aux directeurs des laboratoires I3S (Informatique Signaux et Systèmes) et LEAT (Laboratoire d'Electronique, Antennes et Télécommunications). Comme dans le cas précédent, le concept de cartographie a initié une première boucle d’intéressement (service valorisation et directeurs de laboratoire) autour la solution KMP notamment en raison de ses potentialités en termes de communication interne et externe. Il est d’ailleurs important de noter que l’Université de Nice Sophia Antipolis, à travers son service valorisation, initiait en 2003 un projet de cartographie de l’ensemble de ses laboratoires.
4.4.1.2. Représentation de l’espace commun : chaîne de valeur, représentation du cluster télécoms, représentation du pôle SCS
La représentation des acteurs de TV et de leurs interactions s’est réalisée en trois temps. La première phase s’est concentrée sur les acteurs clés, c’est-à-dire les entreprises. Elles ont été représentées à partir du concept de chaîne de valeur qui permet d’identifier les différents pôles technologiques (Informatique, Télécoms, Electronique) qui participent à une même offre, ici celle de la téléphonie mobile et de l’Internet. La représentation développée dans le cadre de KMP, à partir des travaux du MIT, est la suivante :

Figure 35 : La chaîne de valeur télécoms
Sur Sophia Antipolis, la plupart des entreprises se positionnent sur les segments 5, 6, 7 et 8, la chaîne de valeur étant peu dense localement concernant les fournisseurs de contenu (segment 4), les IAP/ISP (segment 2) ou les firmes qui commercialisent et/ou assemblent des machines de bureau et de matériel informatique (segment 3).
Cette chaîne de valeur a été construite en interaction forte avec les utilisateurs pilotes qui ont intuitivement compris l’importance de cette codification. Ainsi, des groupes de travail ont été créés pour élaborer la chaîne de valeur et dix-huit mois ont été nécessaires pour obtenir une représentation validée par l’ensemble des acteurs. La dernière adaptation marquante fut celle d’IBM, firme leader du site qui a souhaité ajouter dans le bloc 8A le terme « solution ». Cette adaptation l'a conduite en septembre 2003 à devenir pilote du projet alors qu'elle ne le souhaitait pas auparavant.
Ce long processus d'adoption-adaptation est aujourd'hui stabilisé et accepté comme compromis pour l'ensemble du cluster STIC. Son élaboration a fortement mobilisé les acteurs du site qui ont décidé, lors de l'assemblée générale de TV fin 2003, de demander explicitement à chacun des membres, au-delà donc des pilotes, de se représenter dans l'espace commun en se situant sur la chaîne de valeur. Aujourd’hui, l’identification à cet espace commun est un critère de sélection et une condition sine qua non pour les entreprises souhaitant intégrer l’association.
Cette première représentation de l’espace commun à partir de la chaîne de valeur a donc joué un rôle clé dans l’élargissement des boucles d’intéressement à l'ensemble des entreprises de TV. Cependant, la chaîne de valeur concerne essentiellement les entreprises, les acteurs orientés vers l’industrie. Or, tous les membres de TV ne sont pas des entreprises et la dynamique locale n’est pas uniquement de leur fait.
Pour être en adéquation avec les travaux de Dyer et Nobeoka [2000] et plus particulièrement ceux de Cooke et Huggins [2003] sur les clusters, il a donc été nécessaire de prendre en compte les différentes catégories d’acteurs ou organisations formant un cluster. Le choix du regroupement réalisé provient aussi de la catégorisation des compétences en compétences techniques, compétences relationnelles et compétences managériales. La deuxième phase a ainsi consisté à donner une vision globale du cluster télécoms en introduisant ses autres membres : les organismes de recherche et les instituts de normalisation, les acteurs spécialisés dans l’aide au montage de coopération (appelés facilitateurs : instituts de développement régional et clubs), enfin les acteurs représentant des fonctions supports. Ce nouvel espace commun permet ainsi l’identification de tous les acteurs composant le cluster télécoms :
Les parties prenantes regroupent toutes les organisations qui participent à la dynamique locale de création de connaissance et sont donc représentées par les entreprises qui participent à la chaîne de valeur télécoms, les organismes de recherche et de formation et les instituts de normalisation. Ces acteurs représentent donc le cœur du cluster, la « matière du cluster » et reflètent les compétences techniques présentes sur un territoire ; ces organisations peuvent par ailleurs être représentées sur un axe qui va de la recherche aux clients en passant par l’industrie. 
Les facilitateurs représentent toutes les associations, clubs, services ou initiatives dont l’objectif est de « mettre en relation », de faciliter les coopérations qu’elles soient de nature industrielle et donc au niveau des membres de la chaîne de valeur ou de type partenariat en R&D entre industriels et recherche publique. Les facilitateurs peuvent par conséquent aussi être agencés selon leur mission orientée recherche ou industrie : les services valorisation des universités ou centres de recherche publics peuvent être distingués des associations dont le but est de favoriser la coopération en recherche ou industrielle, des institutionnels locaux qui développent diverses initiatives pour valoriser le territoire. Ils symbolisent donc plutôt des compétences relationnelles.
Les « fonctions supports » concernent enfin les acteurs dont le rôle est d’apporter un soutien dans le nouage de partenariats, la création et le développement d’entreprises, le règlement de problèmes de nature juridique ou financière et qui sont nécessaires à la vie et la cohérence d’un cluster. Ces fonctions relèvent donc plutôt de compétences d’ordre managériales.
Cette nouvelle représentation a été schématisée comme suit :

Figure 36 : Le cluster télécoms sophipolitain
Cette représentation a renforcé l'appropriation de la solution par les services de valorisation puisqu'elle les rendait visibles au sein du cluster en tant que « facilitateur ». Au-delà, en distinguant les différentes compétences du site (relationnelle, technique et managériale), le cluster devenait lisible. Plusieurs industriels et représentants de TV ont d’ailleurs souligné à propos de cette représentation « qu’elle a permis de sortir par le haut d’un problème » et de pouvoir identifier clairement les acteurs puis leurs liens. En effet, TV comprend des organisations aussi diverses que des cabinets de conseil juridiques ou des financiers et « si les membres avaient conscience de la nécessité de l’adhésion de ce type d’acteurs dans leur association, ils avaient toutefois du mal à trouver des éléments rationnels de justification de cette adhésion, soit encore à les positionner dans le cluster télécoms » (Responsable de la Commission Développement de TV).
Pour autant, les entretiens menés en 2004 auprès des chercheurs et directeurs de laboratoire ont très vite révélé que cette nouvelle représentation ne faisait pas sens pour eux. En effet, en les cantonnant à une seule « boîte », elle ne permettait pas une visibilité suffisante de leurs activités. Dès lors, en nous appuyant sur les discussions dans le cadre de réunions pour répondre à l’appel à projet pôle de compétitivité, nous nous sommes attachés à proposer une nouvelle représentation de l’espace commun qui fasse apparaître les domaines d’activité des organismes de recherche sophipolitains. La nouvelle représentation de l’espace commun qui a été proposée est la suivante :

Figure 37 : Représentation synthétique du pôle SCS

Figure 38 : Représentation détaillée du pôle SCS
Dans cette représentation, pour chacun des quatre pôles de compétences représentatifs du cluster télécoms (microélectronique, informatique, télécoms et contenu) sont indiquées les activités des industriels et celles de la recherche publique. La partie plus fondamentale de la recherche publique apparaît à la base de ces différents pôles. La flèche centrale représente l’ensemble des chaînes de valeur spécifiques qui traversent ces pôles, et dont les activités sont orientées vers le marché.

Les différentes étapes qui ont façonné la représentation de l’espace commun mettent en évidence une véritable co-évolution entre les usages, ici le besoin des acteurs de s’identifier à un collectif plus large, et la conception, explicitation de l'espace commun. Au total, la modélisation globale du cluster sophipolitain (ou représentation de l’espace commun d’interaction) a constitué le socle d’une véritable « identité communautaire ». Cette représentation présente en outre l’avantage de mettre en valeur le caractère modulaire de la chaîne de valeur télécoms. Elle offre de ce point de vue la possibilité d’avoir d’emblée une vision globale des effets de masse et des manques sur certains segments de valeur au sein d’un territoire donné et éventuellement d’envisager de s’ouvrir sur d’autres territoires possédant les segments locaux manquants.
Aujourd’hui, la dernière représentation de l’espace commun est utilisée comme logo par le pôle de compétitivité SCS et dans leur plaquette de présentation (cf. § 4.4.1.2.). Les derniers entretiens avec la recherche publique nous permettent de dire qu’une nouvelle boucle d’intéressement se met en place (CR du 20 mai 2006). En effet, les chercheurs interrogés ont très vite joué le jeu de l’identification à l’espace commun. Parfois, nous avons même rencontré des chercheurs qui connaissaient déjà cette représentation (utilisée dans le cadre de club par exemple) et l’utilisaient pour se représenter (CR du 29 mai 2006).
4.4.1.3. Le modèle des compétences
La modélisation des compétences fournit les informations nécessaires au tissage de relations partenariales entre firmes et entre firmes et organismes de recherche. Son élaboration s’est heurtée à deux difficultés : la formalisation et la capture de connaissances tacites et dispersées au sein des organisations ainsi que la mise en relief des opportunités, pour chaque firme ou institution, de formaliser et partager ses connaissances.
La modélisation proposée dans la solution KMP est originale et répond à l’objectif d’accroître les échanges et combinaisons de compétences entre acteurs afin de développer les synergies et l’innovation. Les codes ou item, permettant de repérer, puis de décrire les compétences organisationnelles, ont été identifiés à partir des travaux de Authier au sein de la Société trivium et du projet forsic, modifiés et enrichis au regard de la finalité du projet KMP et des enseignements issus de la littérature managériale.
Ainsi, les codes ou items permettant de repérer puis de décrire les compétences organisationnelles dans le cadre du projet KMP se sont articulées autour des quatre causalités aristotéliciennes, qui correspondent aux quatre principes constitutifs des compétences organisationnelles de la littérature managériale [Rouby et Thomas, 2004].

Principes constitutifs des compétences organisationnellesCausalités AristotéliciennesCatégories / CodesPrincipe d’actionCause efficienteActionPrincipe de finalitéCause finaleSystème d’offresPrincipe de lisibilitéCause formelleDélivrablePrincipe systémiqueCause matérielleRessources mobilisées (technologique, managériale, scientifique)Tableau 17 : Le modèle des compétences dans KMP
Un exemple de compétence pour une entreprise du cluster télécoms pourrait ainsi être : Concevoir (action) / le design de circuits intégrés (délivrable) / pour le marché du 3 G (offre de télécommunication mobile de troisième génération) / en mobilisant des ressources : de gestion de projet (ressources managériales), de nouvelles technologies CMOS 90nm et d’architectures systèmes et de librairies (ressources technologiques).
Une fois repérés la compétence ou le groupe de compétences recherché, une description des compétences enrichit la recherche. Cette description comprend alors quatre champs principaux :
L’entreprise et ou l’organisme de recherche (fiches descritpives) : information concernant l’entreprise locale ou l’organisme de recherche local. Dans le cas d’une entreprise par exemple, il est nécessaire de renseigner la maison mère (si elle existe) et les liens qu’elle entretient avec l’entreprise locale. Il est notamment précisé le degré d’autonomie décisionnelle de l’entité locale en matière de nouage de partenariat et l’existence de personnel étranger. Pour les organismes de recherche, doivent être spécifiés des mots clés, thèmes de recherche, relations extérieures de même que les noms des laboratoires ou équipes appartenant au domaine des STIC.
Le problème résolu : champ ouvert permettant de mesurer le degré de maîtrise de la compétence qui a été définie sur un mode déclaratif. Ce champ est plus ou moins renseigné par les entreprises selon leur stratégie de communication et leur position dans le réseau.
Le degré stratégique : cette notion permet d’évaluer le degré actuel et futur d’investissement de l’entreprise dans cette compétence. Elle est essentielle pour évaluer et élaborer des stratégies collectives au niveau du réseau Telecom Valley.
Les types d’accord de coopération dans lesquels la compétence est engagée (en référence à l’ontologie des interactions) : ils renseignent sur les compétences relationnelles de la firme, essentielles dans le cadre du projet KMP qui vise à favoriser le nouage de partenariat inter-firmes et/ou inter-institutions.
Cette codification permet le repérage des compétences dans un référentiel commun, simple à partager. Elle autorise également la conception d’un instrument d’interrogation multidimensionnel des compétences sur ces 4 grandes catégories. Cette représentation a largement été appropriée par les acteurs du terrain. Le témoignage d’un cadre dirigeant d’une multinationale de microélectronique, personnellement impliqué dans le processus de co-conception du projet KMP, est à ce sujet très éclairant. Contacté par une personne extérieure qui cherchait un interlocuteur approprié dans son entreprise pour un projet spécifique, il nous a avoué n’avoir a priori aucune piste de réponse, jusqu’à ce qu’il mobilise la méthodologie KMP de recherche de compétences, et il fut dès lors en mesure de trouver la personne adéquate et de donner ainsi la bonne information au partenaire potentiel. Ce référentiel partagé a structuré sa façon de rechercher les compétences, même au sein de sa propre entreprise.
Dans le cadre du projet KMP, le référentiel des compétences s’appuie sur des ontologies qui renforcent la pertinence des interrogations (cf. 4.3.2.). L’originalité du projet réside ainsi à la fois dans ce référentiel des compétences et dans les ontologies qui soutendent chacun des items de ce référentiel. Ici, les ontologies ont également permis l’élargissement des boucles d’intéressement.
Comme nous l’avons précédemment montré, les ontologies ont d’abord joué le rôle d’objet intermédiaire de conception entre l’équipe d’informaticien et l’équipe de gestionnaire. Elles ont en effet largement interféré dans l’action en introduisant des déplacements et des transformations et en participant à la construction de compromis et de savoirs partagés entre les acteurs. Puis, elles ont permis l’élargissement du réseau sociotechnique qui soutient la solution KMP et sont devenues en ce sens de véritables objets frontières. En effet, le compromis adopté, et qui consiste à construire des ontologies sémiotiques, nous a conduits à faire participer les acteurs du terrain. Plus spécifiquement, lorsque la codification était particulièrement délicate en raison d’une forte situation de concurrence entre les entreprises, ce qui était le cas pour les SSII, les acteurs ont proposé la création d’un groupe de travail ad hoc pour s’entendre sur le degré de granularité et la profondeur des éléments de description. De fait, conscientes de l’importance de la solution pour leurs stratégies de communication, ces entreprises se sont très vite intéressées au projet, et, grâce aux nombreuses réunions de construction des ontologies, se sont appropriées le modèle des compétences proposé. Notons ici que les donneurs d’ordre et plus particulièrement l’entreprise Amadeus ont joué un rôle primordial dans l’élargissement du réseau sociotechnique aux SSII. En effet, c’est d’abord l’incitation forte des donneurs d’ordre du projet envers les SSII pour qu’elles adhèrent puis leur participation active comme entreprises pilotes, qui ont conduit les SSII à choisir de participer au projet.
Notons enfin qu’une modification de l’item système d’offre a été entreprise début 2005 suite aux problèmes rencontrés par les acteurs de la recherche publique pour se décrire (cf. § 4.2.4.). La distinction entre usages génériques et usages applicatifs proposée a ainsi été reprise par les acteurs du pôle pour se décrire lors de la journée organisée par le pôle qui visait à décrire les compétences de la recherche en PACA.
4.4.1.4. Similarité et complémentarité
Comme nous l’avons vu dans la description de la boucle de co-conception 2004, l'intérêt majeur des usagers pilotes pour la chaîne de valeur et les fonctionnalités du prototype 1 a conduit l'équipe projet (co-évolution de la conception et des usages) à approfondir leur réflexion autour du management stratégique d'un territoire. L’équivocité de ces demandes révélait une réalité diverse : « connaître les entreprises présentes sur le site », « connaître les technologies présentes sur le site et leurs synergies », « identifier les domaines où est atteinte une masse critique », « détecter les complémentarités technologiques prometteuses ». Il ne s’agissait donc pas seulement d’identifier les compétences de chacune des firmes mais aussi d’être capable de les organiser en détectant soit leur complémentarité soit leur effet de masse.
S'appuyant sur les travaux de Richardson [1972], l'équipe projet a proposé les concepts de similarité et de complémentarité comme mode d'analyse stratégique du cluster. Selon Richardson [op. cit.] : « la similarité de deux compétences peut être illustrée par le fait de vendre une brosse à dents et de vendre un savon tandis que la complémentarité traduit le fait de produire une brosse à dents et de vendre une brosse à dents ». Ainsi, si l’on reprend la codification des compétences retenue dans le projet KMP, la similarité représente des compétences partageant les mêmes ressources et les mêmes actions, et la complémentarité représente les compétences visant le même système d’offre.
Compétences complémentairesmême Système d’offreCompétences très complémentairesmême Système d’offre, même DélivrableCompétences similairesmêmes Ressources (managériales, technologiques, scientifiques), même ActionCompétences quasi identiquesmêmes Ressources, même Action, même DélivrableCompétences identiquesmêmes Ressources, même Action, même Système d’offre, même DélivrableTableau 18 : Compétences complémentaires/Compétences similaires
Prenant appui sur ces définitions, il est possible de distinguer deux types de combinaisons. La combinaison de compétences complémentaires, représentant une chaîne de valeur, est orientée vers les marchés et les usages. La combinaison de compétences similaires ou quasi similaires (même système de ressources), représentant un pôle de compétences, est axée sur les métiers et les technologies.
En termes de lisibilité d’un territoire, la similarité va permettre de pouvoir identifier des pôles de compétences notamment technologiques et de mesurer le poids et l’atteinte d’une masse critique pour chacun de ces pôles. La complémentarité va quant à elle autoriser l’identification et la représentation de chaînes de valeur.
Ainsi, les concepts de similarité et de complémentarité ont participé à structurer le cluster télécoms et ont accru la lisibilité du cluster par l’identification de grands pôles technologiques (microélectronique, informatique, télécoms et contenu) qui représentent des compétences similaires, ainsi que des chaînes de valeur traversant ces pôles qui représentent des compétences complémentaires.
La représentation partagée de l’espace commun et l’introduction de ces concepts ont permis aux acteurs de développer leurs capacités à anticiper la valeur créée par les partenariats, en améliorant leur capacité à sélectionner les meilleures opportunités et perspectives. Par exemple, les acteurs de la région PACA ont adoptés et réutilisés ces concepts afin de répondre au projet national de pôles de compétitivité, notamment ceux du pôle SCS (Solutions Communicantes Sécurisées). Ces concepts ont permis de structurer la présentation des projets de coopération au sein du pôle SCS. Deux types de projets ont été identifiés : les projets orientés usages (i.e. combinant des compétences complémentaires), et des projets orientés technologies (i.e. combinant des compétences similaires et visant l’innovation technologique).
Ces concepts ont également été proposés et négociés par les responsables KMP de l’association TV auprès d’un grand nombre d’acteurs sophipolitains n’appartenant pas à TV. Ils ont été adoptés par de nombreux instituts de développement régional ou des associations de firmes qui ont même proposé de les utiliser pour accroître la « lisibilité » des associations appartenant au territoire sophipolitain. Ces concepts ont ainsi permis d’identifier les rôles respectifs de nombreuses associations sophipolitaines (cf. § 4.2.3., étape 6) lors de la journée des clubs de Sophia Antipolis. Il était alors possible de distinguer les « business clubs » qui ont un rôle transversal (complémentarité), orienté vers les marchés et les usages, des « compétences clubs » qui ont un rôle vertical (similarité), orienté vers le développement de l’innovation au sein de pôles technologiques, comme le montre la figure ci-après.


Figure 39 : Représentation des clubs et associations sophipolitaines proposée à la journée des clubs le 10 Mars 2004.
Cette cartographie des clubs et de leur rôle a résolu une grande partie des problèmes de légitimité des clubs et associations sur Sophia Antipolis. Par exemple, certains clubs (comme le club Sophia Antipolis MicroElectronique ou le laboratoire des logiciels) ont pu justifier leur création en montrant que leur objectif n’est pas redondant avec ceux d’autres clubs pré-existants. En effet, c’est en s’appuyant sur cette cartographie que ces clubs ont démontré que leur présence correspond à un besoin réel et se sont affirmés vis-à-vis des clubs déjà existants initialement réfractaires à leur création.
En définitive, les concepts de similarité et de complémentarité ont été adoptés à la fois par les acteurs sophipolitains et les acteurs du pôle SCS.
4.4.1.5. Prototypes P1, P2 
Le prototype d'édition (P0) et de requête (P1) relatif au scénario 1, validé par les usagers lors du comité de pilotage du 26 juin 2003, a renforcé la confiance entre le monde des concepteurs et celui des usagers. Le travail sur la chaîne de valeur couplée à la sortie du premier prototype a donc constitué une étape marquante dans l'appropriation de la solution KMP par les usagers, appropriation liée d'une part à l'élargissement des boucles d'intéressement et d'autre part à la co-évolution des usages et de la conception. Ici, la mise en situation réelle de la solution (cf. § 3.1.3.1.) disponible directement par les entreprises via internet, a été déterminante. Cette appropriation forte du projet par la communauté s'est alors matérialisée par l'appropriation, dans les missions de l'association TV, des trois scénarios génériques développés dans le projet.
Le second prototype d’édition et de requêtes (P2), intégrant les réflexions sur les concepts de similarité et de complémentarité et les spécifications fonctionnelles des scénarios d’usage générique S2 et S3, a entraîné l'appropriation du projet par les SSII pilotes. Comme nous l’avons déjà dit, elles ont cessé de se voir comme des concurrentes envisageant même l'intérêt de pouvoir coopérer pour répondre à des appels d'offre ou pour décrocher des projets de grande ampleur. Le dernier comité de pilotage pendant lequel une SSII a testé en direct les réponses de la solution a également renforcé l’appropriation par les SSII du projet et donc l’élargissement de l’intéressement.
Enfin, le travail sur les représentations graphiques de pôles de compétences et de chaînes de valeur spécifiques (prototype P3) ont conduit les membres du pôle SCS à proposer que la solution KMP devienne son outil d’animation. Le réseau sociotechnique s’est donc ouvert, au-delà de l’association TV, à l’ensemble des acteurs PACA du pôle.
4.4.1.6. Fiche descriptive des entreprises et organismes de recherche
Les premiers entretiens exploratoires menés auprès des industriels pilotes laissaient entrevoir d’importants problèmes de visibilité des activités de la recherche locale et révélaient un problème de communication de ces entités. Par exemple, le directeur de la division knowledge management de l’entreprise Hewlett Packard (anciennement Compaq) ne connaissait aucune personne susceptible de faire des contrats européens, bien qu’il trouva l’information utile. Le directeur de la recherche de l’entreprise Amadeus nous faisait quant à lui savoir qu’il avait auparavant tenté d’effectuer des partenariats avec l’INRIA, mais qu’il avait trouvé leur site internet totalement incompréhensible et qu’il n’avait pas réussi à comprendre les activités de cet institut.
Selon le chargé des relations industrielles de l’INRIA et la responsable de la valorisation de l’UNSA, les efforts de communication des organismes de recherche ne correspondaient en effet pas aux attentes des industriels. Il semblait donc nécessaire, avant toute réflexion au niveau des compétences, de définir des fiches descriptives des organismes de recherche susceptibles d’être compréhensibles par les entreprises et qui correspondent aux attentes de la recherche publique : « ce n’est pas un problème de langage commun entre la recherche publique et la recherche privée mais un problème de contenu : c’est ce qui explique que le site de l’INRIA n’est pas compréhensible par les entreprises alors même qu’ils ont prévu leur description des compétences dans un langage industriel » (responsable de la valorisation à l’UNSA).
Au niveau des entreprises, ces fiches ont très vite été établies et validées par le président du comité de pilotage, suffisamment légitime pour parler au nom des autres entreprises. Pour les organismes de recherche, l’établissement de ces fiches a pris plus de temps qu’escompté dans la mesure où les trois organismes de recherche de Sophia Antipolis disposaient de structures organisationnelles totalement différentes et que nous ne disposions pas d’acteurs susceptibles de valider ces fiches pour l’ensemble des organismes de recherche. Ainsi, 7 entretiens ont été nécessaires pour établir ces fiches avec un entretien auprès du directeur de la recherche de l’entreprise Amadeus et une présentation en comité de pilotage pour nous assurer que le contenu de ces fiches correspondait aux attentes des acteurs industriels (cf. annexe 2 : historique du projet KMP).
Proposées comme base de présentation des organismes de recherche lors de la journée Academic Research Forum organisée par le pôle SCS en mai 2006, ces fiches ont été appropriées par l’ensemble des organismes de recherche du pôle. Aujourd’hui, ces fiches ont même été choisies par les acteurs de la recherche publique en PACA pour se décrire sur le site du pôle.
4.4.2. Objets frontières et convergence des trajectoires d’usage et des boucles de co-conception
L’analyse précédente a mis en évidence que les concepts et objets développés dans la solution KMP ont permis qu’un processus d’intéressement se mette en place, dessinant un réseau sociotechnique de plus en plus large. L’adoption-adaptation a véritablement servi de ‘philosophie’ pendant toutes les étapes de développement de la solution. Pour autant, si ces objets frontières ont permis la construction d’un réseau sociotechnique de plus en plus large, ils n’ont pas eu les mêmes répercussions dans les trajectoires d’usage des différents acteurs du réseau sophipolitain. Ici, notre objectif consiste à mettre en évidence le rôle de ces objets et concepts dans la convergence des trajectoires du projet de conception et des trajectoires d'usage de la communauté industrielle d’une part et de la communauté de la recherche publique d’autre part.
4.4.2.1. Co-conception et trajectoires d'usage de la communauté industrielle : une co-évolution positive
Parce qu’ils autorisent l’établissement de compromis sociotechniques successifs, les objets frontières développés dans KMP ont participé à l’élaboration progressive de la solution technique. L’expérimentation KMP montre qu’au-delà de leur rôle dans l'élargissement des boucles d'intéressement, ils ont eu un impact significatif dans la convergence des usages et de la conception.

Figure 40 : Co-conception et trajectoires d'usage de la communauté industrielle : une co-évolution positive
La figure ci-dessus souligne en effet le rôle prégnant de huit concepts et objets dans la convergence des trajectoires de la conception et des usages des industrielles :
le concept de cartographie, comme nous l’avons déjà vu, est à l'origine des premières interactions entre l'équipe de concepteurs et les futurs usagers de la solution. Ce concept s'est révélé être un puissant point de départ à l'intéressement des usagers au projet KMP puisqu'il remportait déjà l'adhésion de la communauté industrielle, porteuse de cette demande. Il apparaît ainsi comme le premier concept de convergence entre l’équipe de conception et les usagers. Il a été déterminant puisqu'il a conduit à l'adhésion des donneurs d'ordre du cluster (commission partenaire), acteurs majeurs de la dynamique locale. Ce sont d’ailleurs ces acteurs, et plus particulièrement le responsable de la commission partenaire, qui ont convaincu des SSII, au départ hostiles au projet, de devenir pilotes. Ici, les donneurs d’ordre ont été de véritables alliés pour la conception de la solution.
La réponse à l'appel d'offre RNRT a constitué une matérialisation du projet lui conférant à la fois une source de financement et un label scientifique. L'année 2002 s'est ainsi concrétisée par la formation d'une première boucle d'intéressement autour des deux commissions de TV. La labellisation RNRT a étendu la légitimité du projet KMP à l'ensemble des représentants de TV et notamment à son Président qui a soutenu officiellement le projet en assemblée générale –décembre 2002- et l’a décrit sur le site web de l’association. Ce soutien, combiné à la labellisation, a favorisé l’intégration de nouvelles entreprises en tant qu’usagers pilotes de la solution (15 pilotes en 2003). L’appropriation du projet par la communauté s'est alors matérialisée par l'appropriation, dans les missions de l'association TV, des trois scénarios génériques développés.
La conception de la chaîne de valeur montre une véritable co-évolution entre les usages, ici le besoin des acteurs de représenter leur espace commun, et la conception, explicitation de l’espace commun. Le long processus d'adoption-adaptation nécessaire à la stabilisation de cette représentation a permis d’établir un compromis pour l’ensemble des acteurs de TV. Cette représentation de l’espace commun a donc été un puissant objet frontière entre les acteurs industriels, suffisamment plastique pour s’adapter aux besoins des différents acteurs mais aussi assez robuste pour que chaque acteur puisse se positionner et participer ainsi à la constitution d’une identité collective.
Le travail sur la chaîne de valeur couplée à la sortie des premiers prototypes d'édition et de requête P0-P1, relatif au scénario 1, a donc constitué une étape marquante dans l'appropriation de la solution KMP par les usagers. En effet, elle a permis dans un premier temps l'élargissement des boucles d'intéressement à l’ensemble des industriels de TV puis, la convergence des usages et de la conception conduisant les acteurs à vouloir prolonger le développement du projet et à renforcer leur participation.
Les concepts de similarité / complémentarité proposés et négociés par le responsable KMP (anciennement Président de TV -2002-2003-) et le chef d’équipe du projet auprès d’un grand nombre d’acteurs sophipolitains n’appartenant pas à TV, ont été adoptés par de nombreux instituts de développement régional ou des associations de firmes pour accroître la « lisibilité » du territoire sophipolitain. Ces concepts ont également été adoptés par les acteurs de la chaîne de valeur télécoms de la région PACA-ouest pour élaborer la réponse à l'appel d'offre des pôles de compétitivité. Ainsi, comme nous l’avons précédemment montré, le pôle SCS a organisé ses projets autour de ces deux notions et a choisi de les représenter dans son logo et dans sa plaquette (cf. § 4.2.4., étape 6 et § 4.5.2.2., encadré 11). Ici, l’ancien Président de TV a été un porte-parole légitime et efficace, parce qu’appartenant au secteur de la microélectronique.
Ce processus d'intéressement fort lié aux concepts de similarité et de complémentarité s’est concrétisé par l’élaboration d’un second prototype d’édition et de requêtes P2, qui, au-delà du développement des scénarios 2 et 3, a largement enrichi les stratégies de communication et de développement collectif. L’évaluation auprès des utilisateurs a montré une validation positive du scénario 2, notamment par les SSII et ceci au-delà des pilotes. En effet, ces dernières ont décidé de créer une commission des SSII au sein de TV et de nouvelles SSII ont demandé à devenir pilotes du projet.
La convergence des boucles de co-conception et des trajectoires d’usage autour du prototype P2 pendant la période du projet RNRT a conduit l'ensemble des membres de TV à vouloir poursuivre le projet. Porté par TV, ce projet est donc entré dans une phase de pré-industrialisation. En parallèle, l’élargissement de la boucle d’intéressement au pôle SCS s’est construit autour de la nouvelle représentation de l’espace commun. La chaîne de valeur a été abandonnée au profit d’une modélisation à la fois plus simple et plus flexible : des cylindres verticaux représentant des métiers (microélectronique, télécoms, informatique et contenus), traversés par des chaînes de valeur orientées vers des usages et / ou des marchés. Comme nous l’avons vu, cette nouvelle représentation est soutenue et portée par l’ancien Président de TV, aujourd’hui vice Président du pôle SCS et responsable de la commission projet, qui l’utilise pour positionner et analyser les projets du pôle. Là encore, cet acteur a été un véritable allié et porte-parole légitime pour la solution KMP.
La matérialisation de ce nouvel espace commun et de fonctionnalités simplifiées est en cours d’élaboration (prototype P3) soutenue par de nouveaux investisseurs (DRIRE, DATAR). Le projet a même été proposé dans le cadre du pôle comme outil d’animation.
L’analyse de cette co-évolution positive entre les trajectoires d’usage de la communauté industrielle et de la conception montre le rôle prégnant des objets frontières développés dans KMP. Plus que de simples éléments codifiés, ils apparaissent comme de véritables objets frontières assurant la convergence entre les usages et la conception.
4.4.2.2. Co-conception et trajectoires d'usage de la communauté de la recherche publique : une co-évolution en pointillés
Cette deuxième étape analyse les interactions entre l'équipe de conception de KMP et les usagers pilotes appartenant à la communauté de la recherche publique.

Figure 41 : Co-conception et trajectoires d'usage de la communauté de la recherche publique : une co-évolution en pointillés
La figure ci-dessus présente les boucles d'intéressement des usagers de la recherche publique. Dans une première période (2003-2004), nous assistons à une co-évolution en pointillée où seuls deux concepts frontières ont émergé, permettant une appropriation partielle de la solution :
le concept de cartographie
Initialement, la volonté d’intégrer la recherche publique dans la cartographie des compétences provenait du responsable de la commission recherche de TV (également chercheur à l’Institut Eurécom). Comme nous l’avions noté, ce besoin de cartographier cette communauté est également apparu dès les premiers entretiens exploratoires menés auprès d’industriels qui soulignaient les problèmes de communication entre les organismes de recherche locaux et les entreprises. En 2003, les premières présentations de KMP auprès de la communauté de la recherche publique ont été effectuées. Comme nous l’avons vu dans la boucle de co-conception de l’année 2003, ces présentations ont bénéficié majoritairement aux différents services de valorisation de l'INRIA, de l'UNSA et de l'institut EURECOM, ainsi qu'aux directeurs des laboratoires I3S et LEAT. Comme dans le cas précédent, le concept de cartographie a constitué un premier point de convergence et a initié une première boucle d’intéressement (service valorisation et directeurs de laboratoire) à la solution KMP.
la représentation du cluster télécoms
Par la suite, la représentation du cluster télécoms, en rendant visibles les facilitateurs, a permis de renforcer l'appropriation / adaptation par les services de valorisation. Cette forte appropriation du projet nous a conduits à effectuer un travail de formalisation des pratiques de la recherche publique. L’objectif était de définir la façon de décrire les organismes de recherche et leurs compétences dans un langage compréhensible par leurs pairs mais aussi et surtout par la communauté industrielle. Ce travail a été réalisé essentiellement en interaction avec les services valorisation et les directeurs de laboratoire qui nous ont aidés dans la sélection des équipes dont les activités étaient en rapport avec le cluster télécoms sophipolitain.
Cependant, ces entretiens semi-directifs menés courant 2004 auprès des directeurs de laboratoire ont montré un problème d’identification de ces acteurs à la représentation proposée. En effet, la représentation indifférenciée des organismes de recherche dans la modélisation du cluster télécoms (cf. § 4.4.1.2., figure 37 : représentation synthétique du pôle SCS) ne leur permettait pas de s’identifier à cet espace commun et aux jeux d’intérêts qui l’animent. Pour autant, ces acteurs ont souhaité initier la cartographie des compétences de leurs différents laboratoires, toujours persuadés de l’intérêt de ce projet en termes de communication au sein du territoire sophipolitain.
Parallèlement, des interactions fortes se sont nouées entre l’équipe de conception et le CNRT Télius, tout nouvellement créé sur le site de Sophia Antipolis. Rappelons en effet que lors de la première assemblée générale de cette association (10 mai 2004), le projet KMP a été présenté comme la plateforme de travail du CNRT qui s’engageait à participer à la poursuite de la mise en œuvre du projet et tout particulièrement du scénario 3.
À partir de juin 2004, la campagne de cartographie des équipes de recherche a été lancée auprès d’une vingtaine d’équipes appartenant aux trois principaux organismes de recherche du cluster télécoms. Deux étapes ont marqué cette campagne. Nous avons d’abord contacté l’ensemble des équipes et réussi plus spécifiquement à en cartographier 5 (Caïman –INRIA-, Planète –INRIA-, Oasis –INRIA/I3S-, Mosarts –I3S-) et le laboratoire LEAT dans son intégralité. Puis, devant l’absence de réponses d’une majorité des chercheurs, nous avons demandé aux services valorisation, directeurs de laboratoires, et au CNRT de nous servir de support pour contacter à nouveaux les personnes n’ayant pas répondu. Le directeur du laboratoire I3S nous a alors invités à venir présenter le projet KMP lors de l’assemblée scientifique de son laboratoire et a soutenu officiellement le projet KMP. Le responsable de la valorisation de l’INRIA est allé directement voir les chercheurs de son organisme pour obtenir des rendez-vous. Enfin, le CNRT a co-signé l’ensemble des mails que nous avons envoyés aux chercheurs. Malgré cette aide, nous n’avons pas réussi à cartographier l’ensemble des équipes sélectionnées.
Plusieurs éléments d’analyse apparaissent alors :
Concernant les équipes cartographiées dès le lancement de la campagne : il est intéressant à ce stade de mettre en évidence les logiques d’action de ces équipes qui expliquent leur volonté de participer à la cartographie.
L’équipe Caïman de l’INRIA par exemple est une équipe commune entre l’INRIA et le CERMICS (Centre d'Enseignement et de Recherche en Mathématiques et Calcul Scientifique) de l’Ecole Nationale des Ponts et Chaussées, créée en 1995. À l’origine, la volonté du CERMIS était de s’implanter sur Sophia Antipolis « pour profiter du contexte local. Il y a de nombreuses interactions à l’INRIA entre le calcul scientifique, informatique, traitement d’image et imagerie médicale. Il y avait donc une partie visibilité et faire partie du développement de Sophia Antipolis qui est une technopole assez lisible » [CR du 20/05/04, responsable de l’équipe Caïman, directeur adjoint du CERMICS]. Cependant, au moment de l’entretien, le responsable de l’équipe nous faisait part de la volonté du CERMIS de « rationnaliser la présence du personnel de ci de là » du fait d’une réduction des budgets. En ce sens, cette équipe s’était engagée dans une stratégie de développement collectif et plus spécifiquement, une stratégie défensive pour montrer l’intérêt à l’Ecole des Ponts et Chaussées de sa présence en local.
Le cas de l’équipe Oasis (co-tutelle INRIA, I3S) est un petit peu différent. Ici, nous étions en présence d’un responsable d’équipe très intéressée par la dynamique locale : « c’est un souhait de ma part de connaître ce qui se passe ici localement. Avant que je prenne des responsabilités au sein de l’INRIA, je faisais partie de Telecom Valley, j’animais la commission formation. Aujourd’hui, je fais partie du comité de pilotage du club InTech, je suis donc à chaque meeting, je participe au choix des sujets. C’est un objectif dans mon travail de participer à ça, …, je le fais par goût, par intérêt. Nous, on fait sortir des thésards de notre équipe, donc la question se pose de pourquoi on les forme de cette façon, est-ce qu’ils vont trouver localement une entreprise pour les employer ou pour faire des partenariats… » [CR du 24/06/04, responsable INRIA de l’équipe Oasis]. Ainsi, cette personne souhaitait véritablement continuer à inscrire son équipe dans la dynamique sophipolitaine de développement collectif et défendait donc une stratégie proactive de valorisation.
Les équipes Mosarts (I3S), Sports (I3S) et le laboratoire LEAT constituent un troisième cas de figure. En effet, ces trois « équipes » travaillent dans le domaine de la microélectronique, qui, comme nous l’avons précédemment montré (cf. § 4.1.2.) est un domaine particulièrement actif dans le cluster sophipolitain. Les acteurs, tant de la recherche publique que de la recherche privée, travaillent en étroite collaboration via des associations et pour la création de plateforme commune comme de conception, la plateforme CIM PACA par exemple. En ce sens, ces acteurs se sont engagés depuis de nombreuses années dans une stratégie pro-active de développement collectif du site dans le domaine de la microélectronique. La cartographie est donc un moyen pour ces acteurs de renforcer la dynamique existante.
Concernant les équipes non cartographiées : malgré l’aide précieuse que nous ont conférée les services valorisation, les directeurs de laboratoire ou le CNRT, certaines équipes n’ont pas répondu ou donné suite à nos différentes sollicitations. À ce stade de l’analyse, deux explications peuvent être proposées :
les difficultés à s’identifier à l’espace commun et à s’approprier l’item système d’offre du modèle des compétences nous ont empêchés de poursuivre la cartographie.
les ‘alliés’ que nous avions choisis pour soutenir notre démarche n’avaient pas la position sociale en termes de légitimité et/ou domination qui encourage les acteurs à nous recevoir. Par exemple, le directeur du laboratoire I3S nous avait fait comprendre que les responsables d’équipe étaient très autonomes et qu’ils ne pouvaient absolument pas les obliger à répondre à cette demande (problème de domination propre à la recherche publique – absence de structure hiérarchique formelle-). Le CNRT était quant à lui naissant et devait également entrer en contact avec les équipes pour se faire connaître (problème de légitimité).

À la fin de cette première période, deux éléments favorables à l’émergence d’une nouvelle boucle d’intéressement au sein de la communauté des chercheurs sont apparus :
la création au sein du CNRT, d’un comité scientifique composé de différents chercheurs du cluster télécoms, à commencer à initier une réelle dynamique au sein de la communauté des chercheurs inexistante jusqu’alors.
l’engagement fort de la recherche publique pour la réponse à l’appel d’offre « pôles de compétitivité » a permis un premier rapprochement entre la communauté industrielle et celle de la recherche publique.
Ces nouveaux facteurs nous ont conduits à initier une nouvelle boucle à partir d’une formalisation du cluster télécoms qui intègrerait une représentation différenciée de la communauté de la recherche publique et des jeux d’intérêt qui l’anime. Ils nous ont également amenés à revoir l’item système d’offre et à proposer les termes ‘usages génériques’ et ‘usages applicatifs’ pour le modèle des compétences. Ces deux éléments ont été intégrés dans le prototype P3, disponible en démonstration mais pas encore implémenté sur le site. Aujourd’hui, même si nous ne pouvons pas réellement conclure à une convergence entre les trajectoires d’usage de la recherche et de la conception, nous pouvons d’ores et déjà parler d’une appropriation de la nouvelle représentation de l’espace commun, des fiches descriptives développées dans KMP et des concepts d’usage générique et applicatif. En effet, comme nous l’avons précédemment montré, ces concepts et objets ont servi de support à l’ensemble des acteurs de la recherche publique en PACA pour présenter ses activités aux entreprises du pôle SCS. Nous verrons par la suite que ces concepts sont aujourd’hui utilisés par le pôle pour se décrire sur sa plaquette de présentation (cf. § 4.5.2.2., encadré 11).
4.5. Retour sur les principes de construction
Même si nous avons effectué un retour aux principes de construction et règles de design à chaque nouvelle boucle de conception, tel que préconisé dans toute démarche méthodologique de recherche intervention, il nous semble ici nécessaire de prendre davantage de recul c’est-à-dire de confronter à nouveau les résultats obtenus avec les propositions théoriques développées dans les chapitres 1, 2 et 3. Cette prise de distance a posteriori est d’autant plus souhaitable que le projet de conception est aujourd’hui arrivé à son terme et qu’il entre en phase de pré-industrialisation.
4.5.1. Sur le rôle des TIC dans les partenariats recherche publique – recherche privée
L’identification des bons partenaires potentiels est une étape clé des processus de coopération en R&D et d’une façon plus générale, s’inscrit dans les facteurs clés de réussite de toutes coopérations, aussi bien inter-firmes que mixtes (c’est-à-dire entre entreprises et organismes de recherche) [Mothe, 1997]. Elle suppose de connaître les compétences et connaissances disponibles chez les partenaires potentiels. Il faut en effet que les partenaires disposent d’une diversité mais aussi d’une complémentarité de leurs talents, connaissances et compétences [Manor et al., 2001]. Ceci implique ainsi qu’une description précise des compétences de chacun soit disponible. Plus spécifiquement, il est nécessaire de décrire les compétences de chaque partenaire de façon précise afin de mettre en évidence les complémentarités potentielles.
Aujourd’hui, il existe déjà plusieurs sites web de compétences qui ont pour objectif de faciliter l’identification de partenaires potentiels tant dans le domaine de la recherche que de l’industrie. Sur Sophia Antipolis par exemple, la Fondation Sophia a souhaité initier, au sein de l’ « Innovative Champion Network », un projet de cartographie des compétences des clusters STIC de Sophia Antipolis, Cambridge, Tel Aviv, Montréal et Munich. Pour ce faire, les acteurs de ce réseau ont proposé d’utiliser un moteur de recherche français dit de nouvelle génération, Exalead, qui propose de nouvelles fonctionnalités par rapport aux moteurs de recherches classique tel Google ou Altavista. En effet, l’originalité d’Exalead vient des fonctions avancées, comme la prévisualisation d’une page en bas de l'écran mais aussi la possibilité d’affiner les résultats de la recherche selon des critères de localités, types de documents et termes associés. Ce type d’outil d’analyse automatique est également utilisé par la société TRIVIUM qui à partir de documents clés des entreprises ou organismes de recherche (rapports d’activités de recherche, de projets…), traduit l’ensemble des données dans un modèle standard de repérage des compétences (l’arbre des connaissances).
L’objectif visé par ces outils TIC est de révéler, à partir de documents existants, les compétences des acteurs ou institutions pour favoriser les opportunités d’échange de connaissances. Dans le cas d’Exalead plus spécifiquement, l’outil doit permettre d’accroître les opportunités d’échange en révélant, à partir des sites internet des différents acteurs, leurs compétences. Ici, l’avantage de ce type d’outil est de pouvoir être implémenté rapidement dans la mesure où les supports existent déjà et qu’il n’est pas nécessaire de faire participer les acteurs ; le tri et la composition des données sont réalisés par des agents intelligents.
Toutefois, il convient de s’interroger sur l’efficacité de ces sites. En effet, nous avons rencontré un exemple type de limites à ces bases de compétences avec la société Amadeus. Comme nous l’avons vu, le responsable du laboratoire de recherche d’Amadeus (Amadeus Labs) nous a confié qu’il préférait mener des projets de coopération avec le MIT, situé en Californie, plutôt qu’avec des organismes de recherche géographiquement proches car la description des compétences sur leurs sites web ne lui permettait pas de repérer les équipes de recherche potentiellement complémentaires de ses activités. Dans ce cas précis, un outil qui s’appuie sur les sites déjà existants ou sur des rapports d’activité ne permet pas aux acteurs de déceler des opportunités d’échange dans la mesure où les informations fournies ne sont pas, à la source, compréhensibles par les acteurs. En d’autres termes, même si ces outils peuvent sembler intéressants car faciles et rapides à implémenter, ils demeurent relativement réduits : ils ne jouent que sur le choix du partenaire avec l’hypothèse, a priori, qu’ils seront appropriés et qu’il existe, au sein de la communauté, une même base cognitive assurant la compréhension des informations fournies.
Dans le cadre de cette recherche, les analyses réalisées sur les mécanismes de création de connaissances et sur les enjeux de la codification nous ont amenés à privilégier la conception de la solution TIC comme un vecteur de développement du capital social. En effet, Nahapiet et Ghoshal [1998] ont mis en évidence le rôle clé du capital social dans le développement du capital intellectuel (cf. § 2.1.2.3.). Dans la perspective que nous retenons, la mise en évidence des compétences des différents acteurs d’un cluster donné n’est pas suffisante car elle ne permet ni d’influer sur la capacité des acteurs à anticiper la valeur créée par l’échange, ni sur leur motivation à échanger ou combiner des connaissances, ni sur leur capacité à combiner. En définitive, cette mise à jour des compétences influence, sous réserve d’une compréhension mutuelle, l’opportunité de faire l’échange et la combinaison. Nous rejoignons ainsi les travaux de Acs et al. [2003] qui montrent que le capital de connaissances détenu sur un territoire ne suffit pas à expliquer sa dynamique d’innovation. Les interactions entre différents acteurs possédant des connaissances distribuées sont essentielles à la création de nouvelles connaissances. En effet, si les combinaisons potentielles de connaissances dépendent de la distribution des connaissances au sein d’un cluster, pour autant leur réalisation ne va pas de soi. Elles ont besoin d’être découvertes et mises en œuvre [Acs et al., 2003]. Plus spécifiquement, ces auteurs mettent en évidence l’existence de filtres de connaissances entre ce qu’il nomme la connaissance en R&D et la connaissance « économique » au sens de Arrow [1962], c’est-à-dire la connaissance activable à des fins commerciales. Ces filtres de connaissances expliquent que des régions faiblement dotées en connaissances mais où il n’y a pas de filtre ont une croissance plus importante que des territoires où les potentiels de création de connaissances sont plus grands mais où les filtres sont plus étanches. Dès lors, dans la perspective retenue par ces auteurs, les politiques publiques ne doivent pas uniquement s’attacher à développer les investissements en capital humain et connaissances, ils doivent également se concentrer sur des instruments pour réduire les filtres entre connaissances en R&D et connaissances économiques [Acs et al., 2003].
En jouant sur les proximités cognitives et sociales, la démarche que nous avons suivie dans cette recherche vise effectivement à diminuer les filtres de connaissances entre les différents acteurs présents sur le site et tout particulièrement entre les acteurs de la recherche publique et de la recherche privée. En effet, tout au long de la co-conception de la solution TIC, nous nous sommes efforcés de renforcer les dimensions cognitives et relationnelles du capital social du cluster STIC. Cette nécessité était d’autant plus prégnante au regard du cluster STIC sophipolitain qui présente deux types de filtres de connaissances : d’une part, entre la recherche publique et la recherche privée, ce qui est assez proche de ceux décrits par Acs et al., [ibid.]; et d’autre part entre les différentes filières technologiques (informatique, télécoms, microélectronique et contenu) (cf. § 4.1.).

Figure 42 : Les filtres de connaissances dans le cluster STIC sophipolitain
Ainsi, les éléments de connaissances que nous avons codifiés dans le cadre du projet KMP ont permis l’élaboration d’objets et concepts permettant de renforcer les dimensions du capital social, notamment les dimensions cognitives et relationnelles, et d’influencer les conditions préalables à l’échange et à la combinaison de connaissances. L’impact du processus de codification mis en œuvre au cours du projet KMP sur les trois dimensions du capital social peut être détaillé comme suit :
Concernant la dimension structurelle, les fiches descriptives des organismes de recherche et leurs fiches de compétences, directement accessibles dans leur intégralité via KMP, ont permis aux acteurs de la sphère privée d’avoir une meilleure connaissance des différents laboratoires du site sophipolitain. Ainsi, lors d’une expérimentation réelle de l’outil par Qwam Systems, un acteur interrogé a souhaité effectuer une requête pour rechercher un laboratoire de recherche travaillant sur les technologies des antennes. Cette requête soumise à la solution KMP a permis à l’entreprise de trouver un partenaire potentiel, le laboratoire LEAT (CR évaluation du 13 janvier 2006). Un autre exemple montre clairement que ces acteurs souffraient d’un important manque d’informations et de connaissances à propos des laboratoires du site. En effet, l’entreprise France Télécom s’est servie de la solution KMP pour connaître l’ensemble des laboratoires de recherche présents sur le site sophipolitain. Cette requête a permis à l’entreprise de découvrir qu’un laboratoire public de Sophia Antipolis était entièrement spécialisé dans la conception d’antennes, laboratoire que l’entreprise ne connaissait a priori pas alors qu’ils sont voisins. Ici, l’utilisation de KMP a accru la visibilité des acteurs de la recherche publique en fournissant des indications précises sur leurs compétences mais en des termes appropriés pour les acteurs de la sphère privée. En effet, les fiches descriptives des organismes de recherche ont été construites en étroite collaboration avec ces deux communautés et les fiches de compétences sont élaborées sur le même modèle que celles des industriels. Ces fiches permettent ainsi une première sélection du bon partenaire et jouent positivement sur la première condition à l’échange et à la combinaison à savoir l’accès.
Concernant la dimension cognitive, les principaux effets constatés concernent (1) l’accès à l’échange et à la combinaison, (2) l’anticipation et (3) les capacités de combinaison. Ces effets sont essentiellement liés à l’élaboration d’un langage et de codes communs (ontologies des compétences, ontologie des coopérations). En effet, la création et l’implémentation d’un référentiel commun de compétences, fondé sur un processus de co-conception entre concepteurs, experts et praticiens, a facilité la communication et a développé les proximités cognitives entre acteurs. Comme nous l’avons précédemment montré (cf. § 4.4.2.3.), le référentiel des compétences a permis à un acteur de la microélectronique d’être en mesure de trouver la personne adéquate dans son entreprise et de donner ainsi la bonne information au partenaire potentiel. La possibilité offerte par la solution de représenter des pôles de compétences et chaînes de valeur (à partir des concepts de similarité et de complémentarité) permet également aux acteurs de mieux appréhender la complémentarité de leurs ressources dans un potentiel partenariat. Ainsi, le modèle des compétences et les concepts de similarités et complémentarité ont un impact positif sur les capacités d’accès à de nouveaux partenaires, et surtout sur l’anticipation de la valeur créée par le partenariat. Les concepts de similarité et complémentarité ont en effet permis de justifier l’existence et la création de clubs et associations au sein de Sophia Antipolis (cf. § 4.2.3.). Ils ont également servi à structurer la présentation des projets de coopération au sein du pôle SCS, opérant une distinction entre les projets orientés usages (i.e. combinant des compétences complémentaires et visant l’innovation de produits), et des projets orientés technologies (i.e. combinant des compétences similaires et visant l’innovation technologique). Au-delà, les ontologies, en permettant l’établissement d’un langage commun, ont renforcé la dimension cognitive du capital social et donc les capacités à combiner les connaissances. Dans cette perspective, nous avons déjà montré que la distinction entre usages génériques et usages applicatifs dans l’item système d’offre a permis au pôle SCS de favoriser l’émergence de projets innovants. Ici, les usages génériques ont joué un rôle majeur pour mettre en place un lien fort entre recherche publique / recherche privée et d’une façon plus générale entre la connaissance en R&D et la connaissance économique. Nous avons ici de nombreux exemples de l’impact du processus de codification de KMP sur la dimension cognitive du capital social et de ses conséquences sur les conditions de création de connaissances comme l’anticipation de la valeur créée et les capacités à combiner. Accroître les capacités à anticiper la valeur créée est un élément clé de la réduction du filtre de connaissances. En effet, cette capacité est essentielle à la découverte de combinaisons.
Concernant enfin la dimension relationnelle, la représentation de l’espace commun permet de répondre au fort problème d’identité dont souffrait TV : « traditionnellement, il y a toujours eu une ambiguïté pour savoir si Sophia est plutôt Télécom ou Informatique … » (responsable de la commission partenaire de TV). L’avantage de cette représentation est d’abord qu’elle propose une vision globale des effets de masse et des manques sur certains segments de valeur au sein du cluster. Elle permet ainsi d’envisager de s’ouvrir à de nouveaux acteurs (accès à de nouvelles compétences). Ensuite, cette représentation de l’espace commun permet de positionner les acteurs et leurs rôles dans le cluster. Elle permet ainsi à chaque acteur d’estimer son rôle dans le collectif dans lequel il est impliqué et d’accroître ainsi sa motivation à s’y engager. Citons à titre d’exemple que la filiale d’IBM, réticente au début du projet, a vivement souhaité devenir « utilisateur-pilote » lorsqu’elle a été capable de se positionner dans l’espace commun (cf. § 4.4.2.2.). Enfin, cette représentation de l’espace commun fournit une clôture organisationnelle indispensable à l’élaboration d’une véritable identité collective. Nous avons vu qu’une réelle appropriation de la chaîne de valeur du cluster s’est opérée dès 2004 lorsqu’il a été demandé à tous les membres de se positionner sur cette chaîne de valeur et qu’elle est même devenue la condition sine qua non pour pouvoir adhérer à TV constituant ainsi sa frontière.
La figure suivante présente le rôle des objets codifiés dans le projet KMP sur les différents types de proximité dans les partenariats recherche publique / recherche privée et donc sur l’accroissement du capital social qui in fine conduit à améliorer les conditions de création de connaissances :

Figure 43 : Rôle des concepts et objets développés dans KMP sur les proximités
En définitive, il nous semble que le rôle d’une solution TIC qui vise à accroître la création de connaissances dans les partenariats recherche publique / recherche privée est de favoriser l’émergence du capital social en renforçant ses dimensions structurelle et surtout cognitive et relationnelle. En effet, des outils clés en main qui s’appuient sur des documents existants pour mettre en évidence les compétences détenues par les acteurs d’un territoire ne permettent pas de jouer sur la qualité des liens et la réduction des filtres de connaissances essentielles à la dynamique de création de connaissances.
Dans l’expérimentation KMP, parce qu’ils ont permis de renforcer les dimensions cognitive et relationnelle du capital social, deux objets frontières ont été particulièrement prégnants :
les ontologies : en permettant l’élaboration d’un langage commun entre les membres de plusieurs communautés, les ontologies sont apparues comme un moyen de réduire les filtres de connaissances tant entre recherche publique et recherche privée qu’entre les différents domaines technologiques et donc de renforcer la dimension cognitive du capital social. En effet, l’implication des acteurs dans le processus de codification des ontologies entraîne des feed back permanents entre connaissances tacites, articulées et abstraites, autorisant ainsi une continuité de significations qui enrichit les cadres d’interprétation des acteurs. Ici, le choix d’un web socio sémantique a été déterminant dans la mesure où il a impliqué des systèmes de classification partagés par le collectif et représentés explicitement dans le système et son interface à travers des ontologies sémiotiques. En effet, pour Zacklad [2005 : 249], « les différences entre les concepts sémiotiques tiennent aussi à de multiples critères extra documentaires, notamment représentés dans les différents points de vue, qui ne sont pas uniquement issus d’une analyse de corpus textuels mais qui reflètent également les débats entre les membres des communautés partie prenantes […]. Dans tous les cas où l’ouverture des situations transactionnelles de référence implique de maintenir une relative ouverture sémiotique, il est souhaitable d’utiliser les ontologies sémiotiques pour guider la navigation à l’intérieur des corpus ». En ce sens, la co-construction des ontologies avec les acteurs du terrain et leur évolution permanente sont des éléments clé de la réussite du projet. Ici encore, des solutions qui privilégieraient une construction automatique des ontologies à partir de documents ne permettraient pas l’élaboration de représentations et langage partagés essentiels au renforcement de la dimension cognitive.
la représentation de l’espace commun : ce premier élément de codification apparaît comme clé dans la mesure où la représentation de l’espace commun constitue le fondement à la création d’une véritable identité communautaire. En effet, en opérant une régionalisation du temps et de l’espace, la représentation de l’espace commun a autorisé la mise en œuvre d’un processus de structuration au sein d’une communauté devenue un véritable système social. Elle a ainsi réellement renforcé la dimension relationnelle du capital social et la motivation des acteurs à participer à la dynamique de cet espace.
Bien évidemment, la participation active des acteurs à la constitution de ces objets frontières est primordiale. Ici, l’outil ne doit pas être neutre : la co-conception avec les acteurs du terrain doit induire des changements dans leurs représentations et donc accroître les proximités sociales et cognitives entre les différentes communautés hétérogènes.
4.5.2. Sur la démarche de co-conception orientée usage d’une solution TIC
La profusion d’outils TIC au début des années 80 a amené de nombreux chercheurs, notamment dans le champ de la sociologie des usages, à s’interroger sur les interactions entre dispositifs techniques et usagers. Très rapidement, cette problématique a été investie par les sciences de gestion qui, face à l’avènement de ces nouvelles technologies dans les entreprises, ont soulevé la difficulté de caractériser simplement les interrelations technologie/organisation dans une logique d’effet ou de causalité [ðBenghozi, 2001]ð. Plus spécifiquement, le « paradoxe de la productivité des TIC » [ðOrlikowski, 1999]ð, selon lequel l augmentation des investissements dans le domaine des TIC ne se traduit pas forcément par une augmentation des performances, est apparu au centre des problématiques. Comment expliquer que le retour sur investissement que nous sommes en droit d’attendre, en termes de qualité ou de productivité du travail, de suppression des tâches fastidieuses et répétitives, d’accès plus rapide à l’information … s’avère parfois bien en deçà des espérances ?
Partant de ces différentes postures, nous avons d’emblée pris conscience de la nécessité d’interroger les usages dès les premiers moments du cycle de vie du projet de conception. Selon Bachelet [2004 : 7], « aborder l’observation dès la phase de conception des outils permettrait par exemple de mettre à jour les représentations des concepteurs. Leur confrontation avec celles des utilisateurs pourrait ainsi constituer une des pistes explicatives du paradoxe de la productivité des TIC ». Pour ce faire, une analyse du concept d’usage nous est apparue essentielle. Cette analyse s’est articulée autour de trois courants compatibles et complémentaires qui placent la définition des usages ou de la technologie au cœur de leur problématique (cf. § 1.1., § 1.2. et § 1.3.) : la théorie de la traduction, de la cognition distribuée et de la structuration.
Au final, bien que ces approches abordent différemment les concepts d’usage et de technologie, elles ont en commun de reconnaître que la technologie est un construit social façonné par les divers usagers qui interagiront avec elle et que l’usage ne peut se comprendre que dans l’interrelation complexe avec un contexte c’est-à-dire en regard d’un environnement d’usage pertinent. Ce travail conceptuel nous a ainsi conduits à apporter une attention toute particulière à la finalité et au contexte d’usage de la technologie à développer. En d’autres termes, il implique d’analyser et d’anticiper le plus finement possible, dès la phase de conception, les modalités de l’interaction entre la technologie et ses utilisateurs, à travers une étude précise de leurs usages.
Dans le cadre de cette recherche, la solution TIC proposée poursuivait un objectif précis : permettre d’améliorer les conditions d’échange et de combinaison de connaissances entre deux communautés aux logiques d’action divergentes, la recherche publique et la recherche privée. L’activité de conception se distinguait ainsi des approches « classiques » qui, majoritairement, proposent d’instrumenter les processus de conception au sein d’entreprises. Au contraire, celle-ci devait tenir compte du fait qu’il n’y avait pas de structure hiérarchique qui incitait les acteurs hétérogènes à coopérer dans la conception. Elle nécessitait au-delà, comme dans les développements récents en conception participative, de placer les usagers au cœur de la démarche. En d’autres termes, elle appelait une approche qui autorise la prise en compte de multiples acteurs hétérogènes et qui propose des instruments pour intégrer ces acteurs dès les premiers moments de la conception.
En définitive, la démarche de co-conception orientée usage que nous avons proposée dans cette recherche s’appuie sur le tryptique théorie de la traduction, théorie de la structuration et théorie de la cognition distribuée (cf. § 3.1.). Cette démarche de co-conception est fondamentale dans la mesure où (1) elle assure la co-évolution des trajectoires d’usage du réseau sociotechnique et des boucles de conception du projet, (2) elle introduit des objets frontières pour permettre l’intéressement des usagers et la convergence des trajectoires du projet et des usages, (3) elle attache une importance toute particulière aux porte-paroles dans la réussite du projet.
4.5.2.1. Co-évolution de la conception et des usages
Dans la lignée des travaux sur les démarches de conception classique, l’intégration des usagers dès les premiers moments du projet devient un élément clé de réussite de l’innovation. Cette intégration peut prendre différente forme : il peut s’agir, dans la lignée des modèles centrés utilisateurs, d’inclure la représentation des activités des acteurs dans l’activité de construction de l’outil TIC grâce à des méthodes des scénarios d’usage ou encore, comme préconisé par les démarches de conception participative, d’obtenir une meilleure expression des besoins des usagers en faisant intervenir des experts en ‘socio-économie des usages’ à toutes les étapes de la conception.
Même si ces approches permettent une prise en compte des usagers dès la conception, elles nous semblaient cependant aborder l’intégration que de façon relativement réduite. En effet, les méthodes centrées utilisateurs ne prennent en compte l’usager qu’à travers la représentation que se font les concepteurs de leurs pratiques, pratiques réduites à l’analyse des tâches dans les contextes de travail. Les démarches de conception participative s’attachent quant à elles essentiellement à l’intégration d’acteurs spécialistes dans la compréhension des usages. De plus, comme le montrent les travaux d’Orlikowski [2002], la participation de quelques usagers pilotes au processus de conception ne permet pas de prendre en compte les formes d’énaction qui émergeront dans des pratiques contextualisées. Seule la mise en situation réelle des outils informatiques autorise l’énaction par les usagers de la technologie-en-pratique et donc des autres structurels enchâssés.
Au-delà, l’analyse de la théorie de la traduction effectuée dans une première section révélait l’importance des phénomènes d’intéressement et de traduction dans la réussite des innovations, principes absents dans les démarches de conception précédentes. Plus spécifiquement, cette approche accorde un rôle prégnant à la construction d’un réseau sociotechnique dans lequel l’innovation, fruit d’une élaboration collective et d’un intéressement de plus en plus large se conçoit. L’élaboration de ce réseau devient ainsi la clé de la réussite d’une innovation. Cependant, l’accent mis par ces auteurs sur les stratégies d’intéressement et de traduction ne permet pas à lui seul d’instrumenter un projet de conception et donc de construire la solution.
En définitive, ces différentes approches nous ont conduit à proposer une démarche de co-conception orientée usage qui distingue les boucles de conception de celles des usages. En effet, chacune de ces boucles a des trajectoires et des ressorts qui lui sont propres. Pour autant, une démarche de co-conception réussie doit tenir compte de la co-évolution de ces deux types de boucles qui assurera l’appropriation par les usagers de la solution en développement. Cette démarche nécessite de fait d’instrumenter ces deux niveaux :
Les boucles de co-conception : la définition de l’esprit de la technologie
Ici, il s’agit d’instrumenter le processus de conception c’est-à-dire de définir les étapes, le contenu, les acteurs mais aussi les formes de coordination de leurs activités [de Terssac, 1996]. Dans ce cadre, les étapes proposées par Hatchuel et Mollet [1986] nous ont semblé essentielles puisqu’elles permettent de guider les concepteurs dans leur activité de conception et d’intégrer les usagers dès les premiers moments du cycle de vie du projet (cf. § 3.2.3.2.). De plus, la description de la situation dans laquelle l’usage de l’outil va se construire et prendre sens telle que proposée par les méthodes centrées utilisateurs semblait également déterminante. Nous avons cependant enrichi cette méthode avec la théorie de la structuration qui permet d’insérer un niveau d’analyse intermédiaire entre les grandes activités en support desquelles la solution technologique à concevoir doit être utilisée et les tâches très spécifiques réalisées à des niveaux locaux (cf. § 4.3.1.3.).
Au final, nous avons proposé de construire l’innovation en six étapes itératives : 1- perception du problème avec les acteurs du terrain, 2- transformation des perceptions en concepts et données, 3- construction des scénarios d’usage, 4- matérialisation du modèle, 5- expérimentation en situation d’usage réel et évaluation, 6- processus de changement.
Dans cette boucle de co-conception, les objets intermédiaires de conception (OIC) sont déterminants et la réussite de la conception réside dans la construction de ces objets. En effet, ils constituent un point de départ d’échanges, de confrontations et parfois même de disputes et sont considérés de ce fait comme la condition de coopération entre les parties prenantes de la conception. Dans le cadre du projet KMP, nous avons essentiellement mis en évidence le rôle de médiation et de traduction joué par les scénarios d’usage et les ontologies entre l’équipe de gestionnaire et d’informaticien de l’équipe de conception. Il est également intéressant de noter qu’à l’instar des démarches de conception participative, des spécialistes des usages (gestionnaires, économistes et ergonomes) ont participé à l’équipe projet tout au long du développement de la solution KMP et ont joué un rôle prépondérant dans l’analyse des pratiques et dans l’adoption-adaptation de la solution.
Les trajectoires d’usage : la construction / stabilisation du réseau sociotechnique
Pour la théorie de la traduction, l’adaptation de l’outil aux usagers pendant la phase de conception n’était pas suffisante puisqu’elle n’assurerait pas l’intéressement progressif des acteurs à la solution. Cette étape de construction du réseau sociotechnique est pour autant cruciale puisqu’elle assure le succès de l’innovation dans sa dimension collective. Ainsi, il apparaît nécessaire, tout au long du projet de conception, que les acteurs parties prenantes mènent un véritable processus de négociation sur le registre de la société et de la technologie, de façon à créer un contexte favorable à la diffusion et à l’appropriation de la solution. En d’autres termes, la démarche de co-conception doit tenir compte, au-delà des boucles de conception, des trajectoires d’usage et privilégier l’adaptation de ces deux espaces. Il est nécessaire que le projet de conception intéresse un maximum d’acteurs qui pourront par la suite soutenir l’innovation. Or, cet intéressement n’est possible que par un processus d’adaptation-adoption des éléments proposés.
De plus, comme nous l’avons précédemment montré, les usagers peuvent utiliser la technologie dans des voies non anticipées par les designers. Dès lors, la participation de quelques usagers pilotes au processus de conception ne permet pas de prendre en compte les formes d’énaction qui émergeront dans des pratiques contextualisées. La mise en situation réelle de l’outil dans le réseau sociotechnique en construction devient dans ce cas fondamentale.
En définitive, cette démarche de co-conception va plus loin que la recherche d’une adaptabilité des systèmes à des usages et à des situations qui n’auraient pu être imaginés au cours de la conception. À l’instar des démarches de conception participative, elle touche au caractère potentiellement évolutif des artefacts et renforce la vision développementale de la conception (c’est-à-dire que la formulation des spécificités de l’outil est un processus évolutif de compréhension, de cadrage et de résolution du problème, guidé par la recherche d’une intelligibilité mutuelle) [Darses, 2004]. Dans ce cadre, mener le processus de conception de concert entre utilisateurs et concepteurs conduit à un apprentissage mutuel au cours duquel l’usage et la conception se modèlent l’un l’autre [Béguin, 2003]. Mais bien plus encore, en portant un regard approfondi sur les boucles d’usage, elle accroît les chances d’appropriation de la solution par la constitution du réseau sociotechnique ouvert à son implémentation.
4.5.2.2. Le rôle des objets frontières : intéressement des usagers et convergence des trajectoires d’usage et des boucles de co-conception
La démarche de co-conception que nous venons de présenter dissocie les boucles de conception des trajectoires d’usage tout en privilégiant la co-évolution des ces deux dynamiques. L’innovation technologique apparaît ainsi comme le résultat provisoire et évolutif de l’interaction entre ces deux boucles. En effet, le processus d’adoption-adaptation n'est possible qu’à travers la convergence de la co-conception avec les trajectoires d’usage. Tandis que les objets intermédiaires jouaient un rôle déterminant dans les boucles de co-conception, les objets frontières apparaissent ici comme primordiaux : ils permettent en effet l’intéressement des usagers et donc la construction du réseau sociotechnique et assurent au-delà la convergence des usages et de la conception.
Les objets frontières ont un double rôle : ils servent d’abord de médiation entre l’équipe de conception et les usagers, puis ils figent concrètement les entités en les inscrivant dans la matière et plus globalement à les faisant passer par des dispositifs concrets (c’est-à-dire des points de passage obligés). Ici, l’objectif principal est de produire un enchaînement de traces et d’inscriptions de toutes sortes, de plus en plus synthétiques et manipulables, qui permettront de mobiliser des univers entiers et d’obtenir leur consentement. En effet, comme le souligne Callon [1991], la réussite de la traduction suppose le recours à des médiums ou des matériels dans lesquels la traduction est inscrite, et qui deviennent son support, son cadre plus ou moins fidèle.
Dans le cadre du projet KMP, plusieurs objets frontières ont permis d’intéresser les usagers à la solution puis d’assurer la convergence entre les trajectoires de conception et d’usage (cf. § 4.4.2.). À l’instar des travaux qui caractérisent les OIC pour suivre les projets de conception, il nous semble qu’une caractérisation des objets frontières est également possible. Notre objectif consiste ici à proposer dans un premier temps cette caractérisation puis, dans un second temps, à l’illustrer avec un des objets frontières les plus importants de l’expérimentation KMP à savoir la représentation de l’espace commun.
Les objets frontières : proposition de caractérisation
Dans la section § 3.1.2.2., nous mettions en évidence, à partir des travaux de Jeantet et al. [1996], deux axes de caractérisation de la finalité des objets intermédiaires de conception dans l’action :
un axe commissionnaire – médiateur qui opère une distinction entre des objets qui ne transmettent des idées ou intentions que de façon transparente et des objets qui modifient l’idée ou l’intention des concepteurs.
un axe ouvert – fermé qui distingue les objets selon leur pouvoir de prescription, c’est-à-dire selon qu’ils prescrivent une seule possibilité d’interprétation ultérieure ou au contraire qu’ils laissent une grande marge de manœuvre à l’utilisateur en l’incitant à interpréter.
Ces deux axes peuvent également servir de support pour caractériser les objets frontières. En effet, les objets frontières peuvent d’abord être caractérisés par leur degré d’ouverture c’est-à-dire selon qu’ils laissent plus ou moins de liberté d’interprétation aux acteurs puis selon l’intention des concepteurs qui les conçoivent à savoir s’ils souhaitent que l’objet soit ou non modifiables par les acteurs.
Sur ce deuxième aspect, il convient de souligner que dans le cadre d’une démarche de co-conception orientée usage, les objets frontières ne peuvent pas, par définition, être totalement commissionnaires. L’objectif de ces objets consiste en effet à servir de support de l’interaction avec les usagers. En ce sens, ces objets doivent être au départ les plus médiateurs possibles pour pouvoir faire émerger d’abord des confrontations puis des compromis sur des représentations partagées ou la création de nouvelles connaissances. La réussite de l’intéressement passe ainsi par la construction d’objets qui suscitent des discussions entre concepteurs et usagers pour trouver des compromis satisfaisants et à assurer ainsi leur intéressement.
Ici, les connaissances générées par les confrontations autour de ces objets sont centrales dans la mesure où elles guident le développement de la solution. Selon Claveau et Tannery [2002 : 128], les connaissances véhiculées dans ces objets sont de deux types :
génériques c’est-à-dire qu’elles « doivent être des cadres conceptuels et méthodologiques de raisonnement contextualisables en situation et pour cela articuler des aspects trop souvent déconnectés (contenu, processus, prétexte, contexte) » ;
génératives au sens où « elles doivent avant tout constituer des supports et des stimulants pour la conception des possibles ou le débat sur les éléments de choix et pour cela porter et générer des visions du développement de l’entreprise, des diagnostics de la situation et, in fine, des règles de raisonnement sur les questions stratégiques ».
En effet, pour ces auteurs, « pour répondre à la pluralité des situations possibles et pas seulement à un cas spécifique et permettre in fine la médiation entre l’explication et la conception de l’action, le général et le particulier, l’individuel et le collectif », il est nécessaire de produire ces deux types de connaissances [Claveau et Tannery, ibid. : 128]. Ainsi, les objets frontières peuvent également être caractérisés selon le type de connaissances qu’ils véhiculent.
Dans l’expérimentation KMP par exemple, les concepts de similarité et de complémentarité, le modèle des compétences ou encore le concept de chaîne de valeur, en offrant des cadres conceptuels et méthodologiques de raisonnement, s’apparentent à des connaissances génériques. Si ces concepts jouent un rôle primordial dans l’intéressement, ils ne suscitent que peu d’interactions entre usagers et concepteurs une fois l’idée acquise et appropriée puisqu’ils ne sont pas, en l’état, matérialisés. En revanche, d’autres objets ont constitué de véritables supports et stimulants pour la conception des possibles ou le débat sur les éléments de choix et ont ainsi porté et généré de nouvelles connaissances sur le développement du réseau sophipolitain, sur la complémentarité des acteurs ... Ici, nous parlons plus spécifiquement des différentes interfaces de représentation de l’espace commun, mais aussi des ontologies, ou encore des prototypes. Finalement, ces différents objets sont une matérialisation des connaissances génériques précédemment définies qui véhiculent à la fois des connaissances génériques et génératives. Ici, la matérialisation assure une médiation physique pour faciliter l’interprétation par les acteurs du terrain, la confrontation des représentations et donc créer des représentations partagées et la création de nouvelles connaissances.
En définitive, la caractérisation que nous proposons permet de distinguer les objets frontières selon le type d’intentionnalité des concepteurs (de médiateurs à commissionnaire), leur degré d’ouverture et donc d’interprétation (d’ouvert à fermé) et le type de connaissances qu’ils véhiculent (connaissances génériques et/ou génératives).
Dans le cadre d’une démarche de co-conception orientée usage, il semble logique que ces objets soient au départ les plus médiateurs possibles pour permettre aux acteurs une grande marge de main d’œuvre en les incitant à se confronter. En d’autres termes, il s’agit de définir des objets suffisamment médiateurs pour que le processus d’adoption-adaptation se mette en place et que de nouvelles connaissances soient créées pour avancer la conception de la solution. Puis, une fois que l’objet acquiert l’intéressement de tous les usagers du réseau sociotechnique, en d’autres termes que l’incertitude est beaucoup plus faible et les connaissances génériques plus stables et importantes, cet objet pourrait acquérir de fait une certaine stabilité tout au moins au niveau de sa structure, limitant les possibilités de modifications profondes ultérieures. Dans cette perspective, ces objets suivent le même schéma que celui proposé par Midler [ð1996]ð pour les projets de conception : au début, il y a beaucoup de degrés de liberté dans les choix possibles (objets très médiateurs) mais qui diminuent au fur et à mesure que le projet avance et que l’irréversibilité se met en place. Ainsi, au fur et à mesure, la connaissance sur le projet augmente et l’incertitude diminue ; de façon parallèle, la connaissance génériques véhiculée par l’objet augmente et les possibilités de choix diminuent. Il est alors possible de jouer sur le degré d’ouverture de l’objet pour autoriser l’adoption-adaptation des acteurs et donc que des phénomènes de traduction se mettent en place.
Ici, nous proposons d’illustrer cette caractérisation à partir de la représentation de l’espace commun développée dans le cadre du projet KMP.
Le cas de la représentation de l’espace commun
Parce qu’elle a permis le renforcement de la dimension relationnelle (positionnement dans le collectif) et de la dimension cognitive (mise en évidence des complémentarités) du capital social, la représentation de l’espace commun est apparue comme un des objets frontières clés pour l’intéressement des usagers à la solution et la convergence de la conception et des usages.
Début 2002, les acteurs du terrain ont fait part de leur problème d’identité au sein de TV. Plus spécifiquement, ce problème traduisait deux types de question : il semblait nécessaire de savoir « qui », c’est-à-dire de connaître quels acteurs appartenaient à cette association (ses frontières) et « pourquoi », en d’autres termes, les relations économiques qui liaient ces acteurs. Au départ, l’équipe de conception a proposé une première vision de l’espace commun qui prenait appui sur une approche économique traditionnelle de la filière télécoms. Le concept proposé s’appuyait ainsi sur le modèle en couches développé par Fransman et Krafft [ð2002]ð. Selon ces auteurs, la filière télécoms sophipolitaine pouvait être représentée par l empilement de six couches représentant les domaines d activité économique du cluster (fournisseurs d équipement, opérateurs réseau, connectivité end-to-end, navigation et middleware, fournisseurs d’application, consommateurs finals) et dont les interactions se limitaient à celles entre couches adjacentes (approche verticale).
Cette première vision de l’espace commun a très vite été rejetée par les acteurs car elles ne leur permettaient pas de visualiser la diversité et la densité des liens sur Sophia. En effet, selon ce modèle en couches, il n’y avait normalement pas d’interactions entre la couche informatique et la couche microélectronique alors que, en réalité, la filière informatique est présente à tous les niveaux y compris dans la conception des puces pour la filière microélectronique. L’équipe de conception a alors proposé d’identifier les acteurs de Sophia et leurs liens à partir du concept de chaîne de valeur dont la modularité pouvait permettre de révéler la spécificité de la filière télécoms à savoir les interactions multiples entre les domaines de la microélectronique, informatique et télécoms. Ce concept de chaîne de valeur a très rapidement séduit les acteurs du terrain qui se le sont appropriés. En ce sens, le concept de chaîne de valeur apparaît comme un premier élément de médiation et d’intéressement entre concepteurs et usagers.
Puis, l’équipe de conception s’est attachée à la matérialisation de ce concept de chaîne de valeur c’est-à-dire à sa représentation par et pour les acteurs de TV. La nécessité de mettre en évidence à la fois les acteurs mais surtout leurs liens nous a alors conduits à concevoir, en interaction avec les usagers pilotes, un objet médiateur relativement fermé qui, à cet instant, décrivait précisément l’espace commun sophipolitain (cf. § 4.4.2.2., figure 36 : le cluster télécoms sophipolitain). Ici, tandis que le compromis sur le concept de chaîne de valeur a rapidement été trouvé, la matérialisation de celui-ci a nécessité de multiples interactions usagers-concepteurs pendant les dix-huit premiers mois du projet de conception. Finalement, une fois le compromis obtenu, la représentation de la chaîne de valeur prenait la forme d’un objet médiateur fermé. Fondé sur le concept de chaîne de valeur (connaissances génériques), cet objet a produit, durant les dix-huit mois du processus d’adoption-adaptation de nombreuses connaissances génératives sur les différents acteurs, leur positionnement dans le collectif, les stratégies individuelles et collectives de développement.
Par la suite, la nécessité d’intégrer les acteurs de la recherche publique nous a conduits à proposer une nouvelle représentation de l’espace commun (cf. § 4.4.2.2., figure 37 : représentation synthétique du pôle SCS). Cependant, la représentation indifférenciée des organismes de recherche dans la modélisation du cluster télécoms ne permettait pas à ces acteurs de s’identifier au collectif et à ses jeux d’intérêts. Ici, nous pouvons dire que nous avons commis l’erreur de ne pas proposer aux acteurs de la recherche publique un objet médiateur qui permette à la fois la confrontation et l’émergence de représentations partagées.
En 2004, il est alors apparu primordial de proposer une nouvelle représentation qui permette leur réelle intégration. À ce moment, la création du pôle SCS d’une part (nouveau contexte) et la définition des concepts de similarité et complémentarité d’autre part (nouvelles connaissances génériques) ont été des événements majeurs. En effet, les concepts de similarité et de complémentarité permettaient de mettre en évidence des pôles de compétences et des combinaisons potentiellement créatrices de valeur (chaînes de valeur). Ici, les segments de valeur et leurs liens ou agencements au sein de chaînes de valeur ne sont pas spécifiés à l’avance. En ce sens, ces deux concepts autorisent de multiples représentations des acteurs, de leurs compétences et de leurs interactions. Par exemple, ces concepts ont permis de représenter sur un même objet l’ensemble des clubs et associations de Sophia Antipolis et de repérer leur rôle dans les dynamiques territoriales (cf. § 4.4.1.4., figure 39 : représentation des clubs et associations sophipolitaines). Ces concepts sont aussi à l’origine de la nouvelle représentation de l’espace commun proposée au pôle SCS (cf. § 4.4.2.2., figure 38 : représentation détaillée du pôle SCS).
Cette nouvelle représentation de l’espace commun incorpore de nombreuses connaissances génériques produites et accumulées au cours de l’avancement du projet KMP : le concept de chaîne de valeur, le concept de pôles de compétences, les concepts de similarité / complémentarité et le concept d’usages génériques. En effet, comme nous l’avons montré dans la section 4.2.4. (étape1) le système d’offre ne permettait pas de représenter une finalité interprétable pour des projets en R&D et notamment pour des acteurs de la recherche publique. Ainsi, l’item système d’offre a été décomposé entre trois modules : les usages génériques, les segments de marché et les marchés applicatifs. Ces trois modules distincts permettent de saisir les complémentarités des projets se situant à des moments du cycle de vie de l’innovation différents, plus ou moins près du marché.
La nouvelle représentation du pôle proposée combine ainsi de nombreuses connaissances génériques qui lui confèrent une structure stable diminuant son rôle de médiateur. Toutefois, cette représentation est très plastique puisqu’à l’inverse de la chaîne de valeur, elle ne spécifie pas à l’avance les segments de valeur ni les liens qui les relient. Elle permet ainsi d’intégrer tous les acteurs du domaine STIC y compris des acteurs possédant de nouvelles compétences comme les acteurs du multimédia. D’une façon générale, elle peut servir à décrire n’importe quel pôle de compétitivité. Ce degré d’ouverture permet ainsi que les processus d’adoption-adaptation puissent se dérouler et assurer l’intéressement des acteurs.
Ces phénomènes d’adoption-adaptation permettent des traductions successives et l’élaboration progressive d’une représentation partagée par l’ensemble des acteurs. En effet, nous avions dans un premier temps proposé de décrire quatre pôles de compétences : la microélectronique, l’informatique, les télécoms et les multimédias. Cependant, les principales parties prenantes du pôle SCS, et tout particulièrement les acteurs du pôle microélectronique, ne souhaitaient pas intégrer les acteurs du multimédia au même niveau que ceux des autres filières. En effet, les acteurs du multimédia, principalement des PME, ne correspondaient pas aux critères du système de légitimité des acteurs les plus importants du pôle : chiffre d’affaires, technologies mobilisées, emplois … Les entreprises du pôle multimédia étaient d’ailleurs décrites, selon les propres termes des acteurs de la microélectronique, comme des « artistes ». Par conséquent, la première représentation du pôle symbolisée par son logo représentaient trois cylindres (pôles de compétences) traversés par une chaîne de valeur (cf. § 4.2.4., étape 6).
Dans la réponse à l’appel à projet pôle de compétitivité, la représentation choisie par les acteurs ne nommait quant à elle pas cette quatrième filière, comme l’indique la figure suivante.

Figure 44 : Modélisation du pôle (issue de la réponse à l’appel à projet pôle de compétitivité SCS)
Cependant, il est intéressant de noter que dans la dernière plaquette de la représentation du pôle SCS (septembre 2006), les acteurs ont finalement choisi d’intégrer complètement les acteurs du multimédia en les représentant comme un pôle de compétences à part entière.

Encadré 11 : Plaquette de présentation du pôle SCS (septembre 2006)
En définitive, cette plaquette illustre à elle seule l’évolution qu’a connue la représentation de l’espace commun du pôle SCS. En haut à gauche figure le logo qui, conçu dès les premières interactions des acteurs du pôle, n’évoque que ses trois principales filières. Au centre, la nouvelle représentation réintroduit les acteurs du multimédia. Ici, c’est le degré d’ouverture de l’objet frontière qui a permis que toutes ces modifications soient effectuées sans pour autant que la structure de l’objet c’est-à-dire la connaissance générique sur la « modélisation d’un pôle » ne soit modifiée. En s’appuyant sur des connaissances génériques stabilisées, les concepteurs ont ainsi proposé un objet beaucoup moins médiateur mais dont le degré d’ouverture a permis que des phénomènes de traduction successifs se mettent en place.
Cette plaquette montre également la réelle appropriation par les acteurs du pôle, du concept « d’usage générique » largement utilisé comme étant les premiers résultats de la chaîne de valeur qui traverse les quatre pôles de compétences : localisation, mobilité, sécurité, identité, connectivité, traçabilité.
Ces usages génériques sont aujourd’hui au cœur du fonctionnement du pôle qui a défini, à côté des deux principales commissions projet et animation, des commissions thématiques organisées par types d’usages génériques. Ces commissions visent à favoriser l’émergence de projets innovants notamment entre recherche publique / recherche privée en combinant des acteurs aux compétences complémentaires.
En définitive, l’évolution de l’objet frontière ‘représentation de l’espace commun’, depuis celle de la chaîne de valeur à celle du pôle SCS, s’apparente aux situations de conception telles que définies par Midler [1996] (cf. 3.1.1.1.) : au début, les connaissances étant relativement faibles, l’intentionnalité des concepteurs consiste à produire un objet médiateur qui permette, grâce aux confrontations qu’il va susciter, de faire émerger des connaissances nouvelles. Dans le cas KMP, cet objet était relativement fermé puisqu’il devait permettre aux acteurs de s’identifier au collectif représenté. Au fur et à mesure de l’avancement du projet, de nouvelles connaissances génériques sont créées. Elles permettent de construire un objet plus stable c’est-à-dire moins médiateur, mais suffisamment ouvert pour permettre que des processus de traduction s’opèrent.
L’évolution de la caractérisation de l’objet frontière « représentation de l’espace commun » peut être ainsi schématisée comme suit :


Figure 45 : Caractérisation de l’évolution de la représentation de l’espace commun
Notons que l’élaboration du modèle des compétences a suivi le même processus. Dans un premier temps, cet objet était conçu pour être le plus médiateur possible afin qu’il suscite confrontation et émergence de connaissances nouvelles. Il y a ainsi eu production de connaissance sur le modèle des compétences : suppression de l’item bénéficiaire et enrichissement de l’item système d’offre. Aujourd’hui, le modèle est stabilisé et n’a pas pour vocation d’être modifié. Toutefois, la construction des ontologies en arrière plan de chaque item, caractéristique de chaque pôle de compétitivité assure les phénomènes de traduction.
4.5.2.3. Trajectoires d’usage et rôle des porte-paroles
Le choix des bons porte-paroles est le troisième élément clé qui assure la réussite d’une démarche de co-conception orientée usage. Pour les auteurs du CSI, ce choix est déterminant puisqu’il fixe et renforce les premières étapes de la traduction. En effet, la réussite du dispositif d’intéressement ne permet pas à coup sûr de garantir la solidité et l’irréversibilité du réseau constitué. Précisément, deux situations peuvent se produire :
Soit les entités enrôlées ne sont pas représentatives, et la masse au nom de laquelle elles sont censées parler ne suit pas. Les alliances conclues sont alors remises en cause et le réseau se désagrège.
Soit les entités sont effectivement représentatives, la masse suit et le réseau gagne à la fois en force et en irréversibilité.
Ici, le choix du bon porte-parole dépendra d’abord de l’entre-définition des acteurs et de la définition des points de passage obligé de la première étape, puis des alliances scellées dans une seconde étape, et enfin, de l’enrôlement réalisé dans une troisième étape (cf. § 1.3.2.2.). Dans l’expérimentation KMP, de nombreux porte-paroles ont joué dans le renforcement du réseau sociotechnique apte à recevoir la solution. La figure suivante indique les principaux porte-paroles qui ont appuyé le développement de notre projet. Elle en distingue différents types : ceux qui ont accompagné le projet sur une longue période et qui ont véritablement permis de sceller des alliances (porte-paroles « clés » -flèches bleues-), ceux qui ont soutenu son développement à un moment déterminant du projet (porte-paroles « ponctuels » -flèches vertes-), ceux qui ont eu des actions limitées (porte-paroles « restreints » –flèches rouges en pointillés-), enfin ceux dont qui ont émergé dans la phase de transition de pré-industrialisation (porte-paroles « émergents » -flèches jaunes-).
Ces porte-paroles ont favorisé l’intéressement d’alliés de plus en plus nombreux et donc l’élargissement progressif des trajectoires d’usage :
De la commission développement (à l’origine du projet) à la commission partenaire (boucle 2001-2002)
Des commissions développements et partenaires à l’ensemble des membres de l’association TV (boucle 2003)
De l’association TV à l’ensemble des associations de Sophia Antipolis (boucle 2004) : ici, le processus d’intéressement s’étend au-delà des acteurs du cluster télécoms sophipolitain en intégrant les acteurs appartenant à d’autres domaines technologiques (énergie, biotechnologie, sciences et vie de la terre ...)
De l’association TV au pôle SCS (boucle 2005-2006) : ici, le processus d’intéressement s’étend à l’ensemble des acteurs du domaine des STIC de la région PACA.

Figure 46 : Le rôle des porte-paroles dans l’expérimentation KMP
La théorie de la structuration est alors fondamentale pour comprendre les logiques d’action et la position sociale des porte-paroles dans le réseau. Elle permet en effet de comprendre pourquoi des acteurs ont favorisé l’intéressement des alliés à la solution. Nous proposons ici de détailler le rôle des quatre types de porte-paroles identifiés dans l’expérimentation KMP :
Les porte-paroles « clés »
Trois acteurs ont apporté un soutien actif tout au long du projet KMP :
le directeur de CAD : son statut de directeur au sein d’un des plus importants instituts de développement régional sur Sophia Antipolis lui confère une légitimité à la fois dans le réseau, mais aussi vis-à-vis des autres instituts,
le responsable de la commission développement : sa légitimité tient à la fois à sa position au sein de l’association TV mais également à son poste de responsable de la communication institutionnelle chez France Télécom,
le président de TV (2002-2003) : son poste de président de l’association TV lui confère une très grande légitimité dans le réseau sophipolitain. Cet acteur occupe également une place importante dans l’entreprise Philips Semiconductors, spécialisée dans la microélectronique : de fait, cet acteur est également légitime dans le pôle SCS, dont les plus importants acteurs sont des firmes de la microélectronique de Marseille (Atmel, Gemplus, STMicroelectronics) –même système de valeur-. Rappelons que l’entreprise Philips Semiconductors, dont la maison mère est aux Pays-Bas, attache une grande importance au développement collectif du réseau sophipolitain.
Les deux premiers porte-paroles étaient à l’initiative du projet. En quelques sortes, ils lui pré-existaient et étaient de fait des « porte-paroles naturels ». Leur rôle a été décisif dans l’orientation stratégique donnée au projet : en effet, ils ont très vite négocié que le projet s’attache, au-delà d’une logique transactionnelle, à renforcer la dynamique d’innovation sur Sophia Antipolis. Leur légitimité au sein du réseau leur a ainsi permis de vendre l’idée d’un outil qui facilite la dynamique de création de connaissances : le projet « Knowldege Mangement Platform » naissait. Ces deux porte-paroles ont également été essentiels pour obtenir des financements à la fin du contrat RNRT. Plus spécifiquement, le directeur de CAD, en tant qu’institutionnel, avait accès aux financeurs et a ainsi « vendu » le projet auprès du Conseil Régional.
Le président de TV a été séduit par l’idée que le projet serve de support au développement collectif des dynamiques d’innovation sur le site de Sophia Antipolis. Dès lors, il est apparu comme un porte parole puissant tout au long du développement de l’expérimentation KMP. Alors qu’il était président de l’association TV, il a vendu les trois scénarios génériques du projet KMP lors d’une assemblée générale de 2003. Peu de temps après, le conseil d’administration de TV a demandé à tous les membres de se positionner sur la chaîne de valeur. En 2004, cet acteur a lui-même présenté les concepts de similarité et de complémentarité aux autres clubs de Sophia Antipolis afin de préparer un atelier sur la lisibilité de Sophia Antipolis présentée à la journée des clubs et associations. Enfin, il a joué un rôle fondamental au moment de la construction du pôle SCS. En effet, il a proposé les concepts de similarité et de complémentarité, les concepts de pôles de compétence et de chaîne de valeur, qu’il a utilisé pour caractériser le pôle et ses projets au moment du montage de la réponse à l’appel pôle de compétitivité. Il a également proposé la représentation du pôle SCS où figurent les quatre domaines technologiques des STIC traversés par une chaîne de valeur (cf. § 4.4.1.4., figure 39 : représentation des clubs et associations sophipolitaines). Notons que cette représentation où ne figurait pas le nom du dernier domaine avait été proposée par ce porte-parole comme une représentation transitoire qui permette qu’un compromis soit établi. Enfin, et d’une façon plus générale, il a participé la réponse à appel d’offre à projet à partir de la modélisation des clusters proposée dans KMP, comme l’illustre le slogan du pôle : « la chaîne de valeur solutions communicantes sécurisées : du silicium aux usages ».
Les porte-paroles « ponctuels »
Cinq porte-paroles ont eu des actions beaucoup plus ponctuelles mais néanmoins essentielles pour le développement de KMP :
le directeur du laboratoire des usages : cet acteur était également directeur scientifique du GET et largement investi dans de nombreuses démarches institutionnelles de développement de la recherche au niveau national. Ce porte-parole nous a notamment proposé de répondre à un appel d’offre RNRT et nous a aidé à constituer notre candidature. Le label RNRT a alors permis au projet KMP d’accroître sa légitimité au sein de l’association TV et de trouver des financements.
Le responsable de la commission recherche, chercheur à l’Institut Eurécom : ce cas est un petit peu particulier dans la mesure où l’action de ce porte-parole s’est très vite arrêtée. Au départ, c’est cet acteur qui a mis en exergue la nécessité de décrire les compétences des acteurs de la recherche publique. À ce moment, il soutenait activement le projet et avait même proposé de servir de relais avec les chercheurs du site sophipolitain. Cependant, début 2003, son entité (Eurécom) a souhaité initier un projet de cartographie de Sophia Antipolis en collaboration avec l’entreprise SAP. Ce projet entrait donc « en conflit » avec KMP même si la logique était totalement différente : le projet privilégiait la technologie aux usages. Ce conflit s’est terminé par la perte de ce porte-parole et l’allié qu’il représentait : l’institut Eurécom.
Les responsables de la commission partenaire : c’est plus spécifiquement le responsable de la sous-traitance d’Amadeus qui a joué un rôle décisif notamment parce qu’il représentait le premier donneur d’ordre de Sophia Antipolis (ressources d’autorité). Notons qu’Amadeus n’est pas engagé comme l’entreprise Philips par exemple, dans une logique de développement collectif. Son intérêt pour la solution KMP n’est donc pas d’accroître sa visibilité mais de lui faciliter le choix de ses sous-traitants. Ainsi, ce responsable voyait dans la solution KMP la possibilité de réduire ses coûts de transaction. Dès qu’il a été nécessaire de trouver des SSII pilotes au sein du projet, ce porte-parole à jouer un rôle majeur pour inciter des SSII à intégrer le comité de pilotage. En ce sens, ce porte-parole a été déterminant dans la boucle 2003. Cependant, son action s’est peu à peu estompée au cours de la boucle 2004. Ceci s’explique par le fait que le projet s’est de plus en plus orienté vers la prise en compte des dynamiques collectives d’innovation, dynamiques qui ne correspondaient pas aux logiques d’action d’Amadeus.
Le directeur du site IBM La Gaude : cet acteur est devenu porte-parole quand il a modifié la chaîne de valeur et qu’il se l’est appropriée (adaptation/adoption). Parce que cet acteur représentait une firme leader dans le domaine informatique, cette médiation a été déterminante dans la légitimité de la chaîne de valeur et a permis qu’elle soit adoptée par l’ensemble des membres de TV. Puis il a alors « vendu » le projet à de multiples occasions à différents acteurs du réseau sophipolitain.
Le responsable 06 de la DRIRE : cet acteur a porté le projet auprès de la DRIRE ce qui nous a permis d’obtenir un nouveau financement pour l’année 2005 afin de faire entrer le projet dans une phase de pré-industrialisation.
Les porte-paroles « restreints »
Il s’agit de l’ensemble des porte-paroles dont la légitimité n’a pas été suffisante pour accroître les boucles d’intéressement et sceller des alliances nouvelles.
Les responsables des services de valorisation de l’INRIA et de l’UNSA : comme nous l’avons montré, la cartographie des compétences et la représentation de l’espace commun ont très vite intéressé ces porte-paroles. Cependant, les deux personnes attachées à la valorisation de l’UNSA et de l’INRIA que nous avons rencontrées dès 2003 venaient de prendre leur poste. La cartographie apparaissait donc comme un support pour accroître leur propre connaissance de leurs laboratoires de recherche. En outre, le fait qu’elles soient entrées en poste récemment ne leur permettaient pas d’avoir suffisamment de légitimité pour mobiliser les acteurs de la recherche publique. Tandis que les porte-paroles précédents représentaient leur organisation, les responsables de la valorisation ne disposaient pas de cette de légitimité. De plus, il est important de noter que ces deux responsables ont changé au cours de l’année 2004 remettant en cause les premières alliances conclues.
Le directeur du laboratoire I3S : le premier directeur du laboratoire I3S que nous avions rencontré nous avait fait part de son manque d’intérêt pour ce qu’il nommait une « nième cartographie des compétences » ; cette critique montre que le concept de cartographie ne faisait pas l’unanimité au sein de la recherche publique à l’inverse de la sphère privée. Cependant, son remplaçant a quant à lui vu les opportunités que pouvaient conférer pour son laboratoire sa participation au projet. Tout au long du développement de la conception, cet acteur nous a ainsi soutenu en « vendant » à de multiples occasions le projet à ses équipes. Toutefois, son action était relativement restreinte dans la mesure où les structures hiérarchiques de la recherche publique sont très faibles et que les chercheurs disposent d’une grande autonomie.
Le directeur du CNRT : là encore, deux personnes se sont succédé au poste de directeur du CNRT au cours des deux années du financement RNRT. Ce problème de stabilité n’a donc pas permis à ces acteurs d’avoir le temps suffisant pour développer leur légitimité au sein de Sophia Antipolis. Ainsi, alors même qu’ils représentaient les porte-parole idéaux et qu’ils soutenaient le développement du projet, ces acteurs n’ont pas permis la mobilisation de la communauté de la recherche publique pour les raisons que nous venons d’évoquer.
Les porte-paroles « émergents » 
Ces nouveaux porte-paroles ont émergé pendant la phase d’industrialisation du projet, soutenue par un financement DRIRE. Il s’agit plus spécifiquement du nouveau président de TV qui participe activement à la recherche d’une entreprise susceptible de mener l’industrialisation du prototype KMP et de la responsable KMP de TV, également responsable de la commission projet dans le pôle SCS. Ce deuxième porte-parole n’est autre que l’ingénieur de recherche qui a travaillé sur le projet en 2003 et 2004. Employée par TV pour continuer sa mission dans le projet, puis nommée en parallèle responsable de la commission animation du pôle, ce porte-parole a activement contribué à « vendre » le projet à de multiples occasions : lors de l’appel à projet des pôles, elle s’est attachée à ce que le projet devienne son outil d’animation ; dans chaque réunion du pôle, elle s’appuie autant que possible sur les connaissances génériques que nous avons développées ; enfin, elle travaille à son industrialisation, notamment en cherchant de nouveaux financements et en précisant le cahier des charges sur la base duquel l’outil sera développé.
En définitive, cette expérimentation met en évidence le rôle prépondérant des porte-paroles dans l’évolution et la réussite du projet de conception. Ces acteurs ont en effet eu un impact à un double niveau : ils ont permis d’une part de sceller les alliances et donc d’étendre le réseau sociotechnique au pôle SCS et à l’ensemble des clubs de Sophia Antipolis. Ils ont également orienté le processus de conception : dans le cadre du projet KMP, le rôle prégnant des industriels a fortement guidé l’évolution de la solution et a véritablement retenu l’attention des concepteurs. Cette forte présence et le manque de porte-parole au niveau de la recherche publique nous a souvent conduits à négliger leur intégration.
4.5.2.4. Vers une synthèse de la démarche de co-conception orientée usage
Comme nous l’avons montré tout au long de ce travail, notre démarche de co-conception orientée usage a combiné un grand nombre de théories provenant de disciplines différentes (sociologie, sciences cognitives et sciences de gestion). Les trois premiers chapitres ont tenté de démontrer la complémentarité de ces approches et la pertinence de leur combinaison. Au regard de l’expérimentation réalisée, nous souhaiterions présenter ici une synthèse de la démarche de co-conception orientée usage mise en œuvre dans KMP.
Dans un premier temps, nous mettrons en perspective l’articulation des différentes théories mobilisées. Puis, nous proposerons une représentation « stylisée » de notre démarche.
Vers une articulation des différentes approches théoriques
Notre démarche de co-conception prend naturellement appui sur les théories qui traitent des processus de conception et des processus d’innovation. Elle combine donc en priorité les théories de la conception et l’approche de l’innovation du CSI. Ces deux approches théoriques présentes des approches complémentaires qui ne mettent pas l’accent sur les mêmes moments du processus de conception.
Les théories de la conception, comme leur nom l’indique, se focalisent sur la conception et notamment sur les étapes qui permettent de passer de la perception du problème (étape 1) à la matérialisation de la solution (étape 4). Afin d’intégrer les usagers dans le processus de conception (co-conception), il a été nécessaire d’intégrer une étape supplémentaire, les scénarios d’usage (étape 3), construits à partir des théories de la cognition distribuée et de la structuration. Par ailleurs, afin de renforcer la rigueur de la démarche de co-conception, l’étape 2 (transformation des perceptions en concepts et données) a été enrichie par les travaux de Romme sur le design organisationnel (appui sur les sciences des organisations, élaboration de principes et de règles de construction).
Au contraire, la théorie de l’innovation développée par le CSI se centre sur la prise en compte des usagers à travers la construction du réseau sociotechnique qui façonne l’innovation. Cette approche permet d’une part, en cohérence avec la théorie de la structuration, de prendre en compte les usages dans leur contexte réel. Elle souligne d’autre part l’importance des processus d’intéressement dans la réussite de l’innovation.
Ces différents éléments nous ont conduits à séparer le monde des concepteurs de celui des usagers. Les boucles de la co-conception s’appuient prioritairement sur les étapes 1, 2 et 3 issues de la théorie de la conception. L’expérimentation en situation d’usage réel mobilise quant à elle les étapes B, C et D de la théorie de l’innovation.
Les différentes matérialisations proposées par l’équipe de conception deviennent alors des objets frontières entre le monde de la conception et celui des usages.

Figure 47 : Combinaison des différentes approches théoriques
Dans cette figure, les parties jaunes en pointillées représentent plus particulièrement la prise en compte des usages.
La prise en compte des usages tant dans l’approche du CSI que dans la théorie de la structuration, nous a incités à adopter une démarche en boucles itératives qui est la seule capable de prendre en compte l’élaboration de médiations successives qui façonnent le projet. Ainsi, l’analyse du processus de changement (étape 6 de l’approche de la conception) est à la fois l’occasion de relancer une nouvelle boucle de co-conception et d’élargir le réseau sociotechnique. In fine, notre démarche peut être synthétisée de la façon suivante.

Figure 48 : Synthèse théorique

Conclusion générale
Notre recherche s’était fixée pour objectif d’analyser les apports d’une démarche de co-conception orientée usage d’une solution TIC qui visait à faciliter l’émergence de projets innovants entre recherche publique et recherche privée. Pour ce faire, elle s’est appuyée sur une expérimentation, plus précisément une recherche intervention, dans le cadre de l’association Telecom Valley au sein de la technopole sophipolitaine.
Dans ce contexte précis, les acteurs sophipolitains savaient qu’ils disposaient d’un environnement particulièrement riche lié à la coprésence, sur un même espace géographique, de nombreux acteurs, tant publics que privés, spécialisés sur l’ensemble des domaines technologiques qui caractérisent la filière télécoms sur Sophia Antipolis. Conscients de cette opportunité, une majeure partie de ces acteurs désiraient vivement encourager la dynamique des innovations qui, selon eux, n’était pas à la hauteur du potentiel qu’offrait pourtant la technopole. Le cas de l’association Telecom Valley apparaissait ainsi comme représentatif d’une technopole dans laquelle les interactions entre acteurs hétérogènes n’allaient pas de soi, qu’il s’agisse de celles nouées entre acteurs industriels ou entre acteurs de la recherche publique et de la recherche privée. La littérature sur les coopérations inter-firmes et celle sur les partenariats recherche publique / recherche privée fait d’ailleurs abondamment écho à ce constat. En particulier, certains auteurs [Acs el al., 2003] mettent en avant l’existence de filtres cognitifs, véritables freins à la dynamique de création de connaissances entre acteurs hétérogènes.
Plusieurs autres technopoles régionales par ailleurs elles-mêmes confrontées à cette même problématique, avaient déjà initié une démarche d’implémentation de solutions TIC pour assurer une meilleure visibilité des acteurs de leur territoire. Parce qu’elles autorisent la mise en relation d’acteurs et sont souvent appréhendées comme des leviers essentiels aux interactions, les TIC sont dans le même temps perçues comme offrant de surcroît des potentialités en termes d’échange et de combinaison de connaissances. Dès lors, le recours aux TIC est apparu comme une évidence aux technopoles régionales, dont Telecom Valley. Cependant, si la mise en relation des acteurs par les TIC semblait incontournable, les nombreux cas d’échec d’implémentation de solutions technologiques (aussi bien d’ailleurs à l’intérieur des firmes que dans un réseau de firmes) laissaient entrevoir un problème nouveau et central : celui de leur usage par les acteurs auxquels elles étaient pourtant destinées. Ainsi, tandis que les TIC pouvaient constituer une solution au problème de la dynamique des innovations dans le territoire sophipolitain, leur contribution à la dynamique d’innovation entre ses acteurs se présentait dans le même temps comme un problème en soi. Il devenait alors nécessaire de développer une démarche de conception qui assure l’appropriation de la solution par les acteurs/usagers et ce, dès les premiers moments du cycle de vie du projet.
Dans la perspective de la conception d’une solution TIC orientée usage, de nombreux auteurs avaient déjà pointé l’intérêt d’un centrage du projet de conception sur les usagers et proposé des voies méthodologiques en ce sens. Cependant, si les pistes retenues par ces auteurs étaient séduisantes, elles ne suffisaient pas selon nous à construire une méthode intégrée de co-conception c’est-à-dire une méthode qui articule à la fois le monde de la conception et le monde des usages. C’est à cette tâche que nous nous sommes attelés.

À l’issue de notre travail de thèse, la construction d’une méthode de co-conception qui intègre, en les enrichissant, les résultats de travaux existants par le biais d’une recherche intervention conduite en étroite collaboration avec les acteurs du terrain, nous a permis de produire plusieurs éléments de conclusions. L’approche intégrée que nous proposons garantit la co-évolution de la conception et des usages nécessaire à la réussite du projet d’innovation. Par ailleurs, nous avons constaté que cette démarche permettait d’aller au-delà de la seule appropriation de la solution par ses usagers futurs. En effet, au cours du processus de co-conception alliant les mondes de la conception et des usages, les cadres cognitifs des acteurs se sont, dans certains cas, sensiblement élargis.
En prenant du recul par rapport à ces éléments de conclusion, nous nous rendons compte que notre démarche a mis en exergue le rôle majeur joué par les objets intermédiaires de conception, les objets frontières et les porte-paroles. En effet, nous avons tout d’abord montré dans la section 4.3., que les scénarios d’usage et les ontologies ont joué un rôle essentiel d’objets intermédiaires de conception autorisant la coordination des acteurs de l’équipe projet en servant de support aux processus de médiation, traduction et représentation. Puis, nous avons mis en évidence le rôle de certains objets dans l’adhésion des acteurs du terrain au projet en développement à travers le concept d’objet frontière (cf. § 4.4.). Enfin, nous avons ciblé dans la section 4.5. le rôle clé joué par certains acteurs appelés porte-paroles dans la dynamique d’intéressement d’un réseau d’acteurs de plus en plus large au projet.
Si le rôle essentiel joué par les objets intermédiaires, les objets frontières et les porte-paroles n’est pas une nouveauté en soi, force est toutefois de constater que les travaux en proposent traditionnellement une lecture segmentée, c’est-à-dire les considèrent et les travaillent indépendamment les uns des autres. L’originalité de notre démarche vise non seulement à les articuler dans une approche de co-conception que nous pouvons alors qualifier d’intégrée (cf. § 4.5.2.4.) mais également à identifier les moments du cycle de vie du projet de conception dans lesquels leur rôle est le plus essentiel.
Dans le cas où le projet de co-conception intègre des acteurs aux logiques d’action fortement hétérogènes, l’équipe de conception se devra d’accorder une attention d’autant plus particulière à la construction d’objets frontières et à l’identification de porte-paroles légitimes et efficaces alors indispensables à la réussite du projet. Les objets médiateurs ont en effet vocation à élargir les cadres cognitifs des acteurs d’une part et à faire converger les boucles de co-conception et les trajectoires d’usage d’autre part. Les porte-paroles, à la double condition d’être reconnus comme légitimes par les autres acteurs et fortement engagés dans le projet, doivent quant à eux promouvoir l’intérêt des objets produits par l’équipe de co-conception aux autres membres de leur communauté. Par ce biais, leur influence est notable dans l’orientation stratégique prise par le projet.
En définitive, le rôle de facilitateur des porte-paroles est déterminant pour assurer la réussite de la démarche de co-conception à condition qu’ils puissent mobiliser des objets frontières. Toutefois, ce rôle de facilitateur peut s’avérer contraignant. En effet, dans le cas où le projet de co-conception vise une pluralité de communautés, la prégnance de certains d’entre eux, les porte-paroles « clés », oriente la démarche de co-conception dans un certain sens. Or cela peut conduire à privilégier leur dessein propre au détriment des attentes et besoins spécifiques des autres communautés. De ce point de vue, l’équipe projet peut, plus ou moins inconsciemment, être amenée à occulter des logiques d’action dont elle sait pourtant qu’elles doivent être analysées puis intégrées.

Les résultats de cette recherche tendent finalement à confirmer le rôle majeur d’une solution TIC pour favoriser l’émergence de projets innovants entre acteurs hétérogènes à la condition que le développement de cette solution s’inscrive dans une démarche de co-conception orientée usage. Dans cette démarche de co-conception, nous avons montré le rôle majeur joué par les processus de codification. En particulier, le recours à la codification a permis la construction de modèles (chaînes de valeur, modèle des compétences) qui présentent la particularité d’être construit en arrière plan sur des ontologies. Ces ontologies, en permettant l’établissement d’un langage commun, ont renforcé la dimension cognitive du capital social ce qui a joué sur l’anticipation de la valeur créée et sur les capacités à combiner les connaissances des acteurs. Or, accroître les capacités à anticiper la valeur créée et les capacités à combiner les connaissances sont des éléments clé de la réduction des filtres cognitifs entre acteurs hétérogènes. La construction des ontologies est un processus long et complexe qui implique une interaction forte entre l’équipe de conception et les acteurs du terrain. De ce point de vue, une équipe de conception qui n’accorderait pas suffisamment d’intérêt ou de temps à la construction des ontologies prendrait le risque de concevoir une solution qui ne permettrait pas une réduction pourtant nécessaire des filtres cognitifs. Pour les managers confrontés à une problématique de conception d’une solution TIC à destination de communautés hétérogènes, cela signifie une prise de distance à l’égard de solutions plus « rapides » à implémenter comme celles où le tri et la composition des données sont réalisés par des agents intelligents.
Les apports théoriques de notre travail, notamment la mise en perspective de la méthode que nous avons élaborée avec les travaux sur la conception déjà existants, ont précédemment fait l’objet d’une présentation argumentée dans la section 4.5 du chapitre 4. Cette section a également été pour nous l’occasion de débattre sur l’apport des TIC à la problématique de la création de connaissances par le biais des partenariats entre recherche publique et recherche privée.

Plusieurs pistes de recherche nous semblent désormais intéressantes à investir.
Comme nous l’avons déjà mentionné, les résultats de l’expérimentation KMP ont mis en évidence que la démarche de co-conception a permis un élargissement des cadres cognitifs des acteurs/usagers concernés par le projet. Ici, les objets frontières ont joué un rôle majeur puisqu’ils en ont été d’abord le support puis parce qu’ils ont servi d’intermédiaire entre les communautés divergentes associées au projet. En ce sens, ces objets frontières ont piloté la dynamique communautaire construite autour du projet. Il nous paraîtrait maintenant utile d’analyser jusqu’à quel point et en quels termes ces objets peuvent infléchir les cadres cognitifs des acteurs. Plus spécifiquement, il s’agirait d’étudier si ces objets frontières peuvent servir à faire cohabiter voire se rencontrer des cadres cognitifs a priori divergents. En d’autres termes, est-il possible que ces objets frontières servent de support à la construction d’une « méta-communauté » ? Bien entendu, il ne s’agira pas ici d’occulter la nécessaire variété des bases de connaissances des acteurs, notamment entre recherche publique et recherche privée, indispensable à la dynamique d’innovation. Dans le cas spécifique de KMP, il serait opportun d’analyser dans quelle mesure la construction des ontologies permettra dans un futur plus ou moins proche l’émergence d’une véritable dynamique de création de connaissances entre les acteurs de la recherche publique et de la recherche privée.
De plus, après avoir expérimentée une méthodologie de co-conception d’une solution TIC orientée usage, il serait intéressant d’interroger cette fois le rôle des objets frontières et des porte-paroles dans des méthodologies d’implémentation de solutions TIC. Cela nous conduirait à positionner la réflexion plus en aval, au niveau d’objets déjà conçus mais dans tous les cas médiateurs et à insérer de manière efficiente dans des environnements organisationnels d’accueil.
Enfin, nos résultats, d’une façon plus générale, ont souligné l’importance des processus de codification conduisant à la construction d’artefacts médiateurs. Il nous semblerait utile d’approfondir ces résultats en interrogeant notamment les artefacts cognitifs technologiques entendus comme supports de connaissances et technologies de l’intelligence. Il s’agirait alors de porter un regard approfondi sur le type de connaissances cristallisées dans l’artefact (connaissances accumulées, négociées, encastrées dans des collectifs), l’insertion des artefacts cognitifs dans les dynamiques organisationnelles via des processus dans lesquels la connaissance est distribuée, ou encore le type de coordination dont les artefacts cognitifs peuvent faciliter le pilotage. Plus particulièrement, cela reviendrait à s’interroger sur le développement d’activité cognitive lorsqu’elle est outillée par de nouveaux artefacts cognitifs et communicationnels. Références bibliographiques
Acs Z., Audretsch D., Braunerhjelm, P., & Carlsson, B. (2003). The Missing Link : The Knowledge Filter and Endogenous Growth. DRUID Summer Conference on Creating, Sharing and Transferring Knowledge, Copenhague : 12-14 juin.
Adams J.D., Chiang E.P., Starkey K., (2001). Industry University Cooperative Research Centres. Journal of Technology Transfer, N°26, pp. 73–86.
Adler P.S., Kwon S.-W., (2000). Social capital: the good, the bad and the ugly. In Lesser E.L. (ed,) Knowledge and Social Capital : Foundations and Applications, Newton MA Butterworth-Heinemann. pp. 89-115.
Akrich M., (1989). La construction d’un système sociotechnique : Esquisse pour une anthropologie des techniques. Anthropologie et Sociétés, Vol. 13, N°2, pp. 31-54.
Akrich M., (1990). De la sociologie des techniques à une sociologie des usages : l’impossible intégration du magnétoscope dans les réseaux câblés de première génération. Techniques et Culture, N°16, pp. 83-110.
Akrich M., (1993). Les objets techniques et leurs utilisateurs, de la conception à l’action. Raisons Pratiques, N°4, pp. 35-57.
Akrich M., (1998). Les utilisateurs, acteurs de l’innovation. Éducation permanente, N°134, pp. 79-92.
Akrich M., Callon M., Latour B., (1988). A quoi tient le succès des innovations ? Annales des Mines, Juin, pp. 4-17 et Septembre, pp. 14-29.
Allard-Poesi F., Perret V., (2003). La recherche action. In Y. Giordano (coord.), Conduire un Projet de Recherche : une Perspective Qualitative, Editions EMS, pp. 85-132.
Amin A., Cohendet P., (2004). Architectures of Knowledge: Firms, Capabilities and Communities. Oxford University Press.
Ancori B., Bureth A., Cohendet P., (2001). The economics of knowledge: the debate about codification and tacit knowledge. Industrial and Corporate Change, Vol. 9, N°2, pp. 255-287.
Arce A., Long N., (1992). The dynamics of knowledge: interfaces between bureaucrats and peasants. In N. Long and A. Long (eds.), Battlefields of Knowledge: the Interlocking of Theory and Practice in Social Research and Development, New York: Routledge. pp. 211-46.
Arena R., Conein C., Leloup B., Licoppe C., (2005). Pôle de compétitivité : le rôle du laboratoire des usages de Sophia Antipolis. Rapport pour le pôle SCS.
Argyris C., (1995). Savoir pour agir, surmonter les obstacles à l’apprentissage organisationnel, Interéditions, Paris.
Argyris C., (1996). Actionable knowledge: design causality in the service of consequential theory, The Journal of Applied Behavioral sience, Vol; 32, N°4, pp. 390-406.
Argyris C., Putnam R., McLain Smith D., (1985). Action Science: Concepts, Methods, and Skills for Research and Intervention. Jossey-Bass, San Francisco, CA.
Ariño A., Abramov M., Skorobogatykh I., Rykounina I., Vilà J., (1997). Partner Selection and Trust Building in West European-Russian Joint Ventures: A Western Perspective. International Studies of Management and Organization, Vol. 27, N°1, pp. 19-37.
Arrow K., (1962). The Economic Implication of Learning by Doing. Review of Economics and Statistics, Vol. 80, pp. 155-173.
Auttisier D., (2001). L'acteur compétent ou l'agir réflexif. In D. Autissier, F. Wacheux (dir.), Structuration et Management des organisations, L'Harmattan, pp. 207-226.
Bachelard G., (1938). La formation de l'esprit scientifique, Librairie philosophique J. Vrin.
Barlatier P.J., (2006). Dynamique des connaissances au sein d’un réseau localisé de firmes : le cas « Télécom Valley ». Thèse de doctorat en Sciences de Gestion, Université de Nice Sophia Antipolis.
Barney J.B., (1986). Strategic factor markets. Management Science, Vol. 32, pp. 1231-1241.
Bateson G., (1979), Mind and Nature: a Necessary Unity. Bantam Books, New York.
Benghozi P.-J., (2001), Technologie et organisation : le hasard et la nécessité. Annales des télécommunications.
Benghozi P.-J., (1990), Innovation et gestion de projet. Paris, Eyrolles.
Bijker W.E., Law J. (Eds), (1992). Shaping Technology/Building Society: Studies in Sociotechnical Change. MIT Press, Cambridge.
Bijker W. E., Hughes T. P., Pinch, T. J. (Eds.), (1987). The social construction of technological systems : new directions in the sociology and history of technology. Cambridge, MA: MIT Press.
Blanc C., (2000). Pour un écosystème de la croissance, http://www.ecosysteme-croissance.com/projet/.
Boisot M., (1995). Information Space: A Framework for Learning in Organizations, Institutions and Culture. London: Routledge.
Boisot M., (1998). Knowledge Assets: Securing Competitive Advantage in the Information Economy. Oxford University Press.
Boisot M., Canals A., (2002). Data, Information and Knowledge in the Evolution of Organizations. XVIIIth EGOS Conference, Barcelone, Espagne, 4–6 Juillet.
Boisot M., Canals A., (2003). Data, information and knowledge: have we got it right ?. Working Paper Series WP04-002, Internet Interdisciplinary Institute (IN3): http://www.uoc.edu/in3/eng/index.htm.
Boland R.J., (1989). The experience of system design: A hermeneutic of organizational action. Scandinavian Journal of Management, Vol. 5, pp. 87–104.
Boland R.J., Tenkasi R.V., (1995). Perspective making and perspective taking in communities of knowing, Organization Science, pp. 350-372.
Bomsel O., Le Blanc G., (2000). Dynamiques industrielles et réglementaires des télécoms : une comparaison Etats-Unis/France. Les Notes de l'IFRI, n° 29 : "Le nouveau défi américain", IFRI - La Documentation Française.
Boschma, R., (2004). Proximité et innovation, Economie Rurale, Vol. 2, pp. 8-24.
Boschma R.A., Lambooy J.G., Schutjens.V, (2002). Embeddedness and innovation. in M. Taylor et S. Leonard (Eds.), Embedded entreprise and social capital. International perspectives, Ashgate, Chap.2, pp. 19-35.
Boullier D., (1989). Du bon usage d'une critique du modèle diffusionniste. Discussion-prétexte des concepts de E.M. Rogers. Réseaux, N°36, pp. 31-51.
Boullier D., (2004). Présentation dans le cadre du laboratoire des usages, Sophia Antipolis.
Breton P., Proulx S., (2002). Usages des technologies de l'information et de la communication, dans L'explosion de la communication à l'aube du XXIème siècle, Editions la découverte, pp. 251-276.
Brousseau E., Petit P., Phan D., (1996). Mutations des télécommunications, des industries et des marchés, ENSPTT-Economica, Paris, 553 p.
Brown J.S., Duguid P., (1991). Organizational Learning and Communities of Practice: Toward a Unified View of Working, Learning, and Innovation. Organization Science, Vol. 2, N°1, pp. 40-57.
Caelen J., (2004). La conception participative d’objets interactifs : principes, méthodes et instrumentalisation. École d’été du GDR TIC, Carry le Rouet, Septembre.
Caelen J., Jambon F., (2004). Conception participative par « moments ». Actes de la 16ème conférence francophone sur l’interaction homme-machine (IHM’04), ACM International Conference Proceedings Series, pp. 29-36.
Cahier J.P., Zacklad M., Charlet M., (2004). Une application du Web socio sémantique à la definition d’un annuaire metier en ingénierie. Actes des journées Ingénierie des connaissances IC2004, mai 2004, Lyon.
Callon M., (1986). Éléments pour une sociologie de la traduction : la domestification des coquilles St-Jacques et des marins pêcheurs dans la baie de St. Brieuc. L’Année Sociologique, numéro spécial La sociologie des Sciences et des Techniques, N°36, pp. 169-208.
Callon M., (1991), Réseaux technico-économiques et irréversibilité, in RB., Chavanne B., GODARD O. (ed.), Figures de l’irréversibilité en économie, Paris, Edition de l'EHESS, pp. 195-230.
Callon M., (1992). The dynamics of techno-economic networks. In R. Coombs, P. Savioti and V. Walsh (eds.) Technological change and company strategies. London: Harcourt Brace Janovich, chap. 4, pp. 72-102.
Callon M., (1994). Is Science a Public Good, Science Technology and Human Values, Vol. 19, N°4, pp. 395-425.
Callon M., Larédo P., Mustar P., (1995). La Gestion stratégique de la recherche et de la technologie. Paris, Economica.
Callon M., Latour B., (1986). Comment concevoir les innovations ? Clefs pour l’analyse socio-technique, Prospective et Santé, N°36, pp. 13-25.
Caloghirou Y, Aggelos T., et Vonortas NS., (2001). University-Industry Cooperation in the Context of the European Framework Programmes. Journal of Technology Transfer, Vol. 26, N° 1-2, pp. 153-161.
Carayol N., (2003). Objectives, agreements and matching in science-industry collaborations: Reassembling the pieces of the puzzle. Research Policy, N°32, pp. 887-908.
Carroll J.M., (2000). Making Use: Scenario-Based Design of Human-Computer Interactions. MIT Press, Cambridge, MA.
Carroll J.M., (1990). Infinite detail and emulation in an ontologically minimized HCI. In J. Chew & J. Whiteside, (eds), Proceedings of CHI'90: Human Factors in Computing Systems, New York, ACM, pp. 321-327.
Carroll J.M., Rosson M.B., Chin G., Koenemann J., (1998). Requirements Development in Scenario-Based Design. IEEE Transactions on Software Engineering, December, Vol. 24, N°12, pp. 1156-1170.
Cassier M., (2002), L'appropriation des connaissances dans les partenariats laboratoires publics/entreprises. Rapport pour le programme du CNRS sur les enjeux économiques de l'innovation, 129 p., juillet.
Chambat P., (1994). Usages des technologies de l'information et de la communication : évolutions des problématiques, Technologies de l'information et système, Vol.6, N°3, pp.249-270.
Chanal V., (2000). Communautés de Pratique et Management par Projet, M@n@gement, Vol.3, N°1, pp. 1-30.
Chanal V., Lesca H., Martinet A.C., (1997). Vers une Ingénierie de la Recherche en Sciences de Gestion. Revue Française de Gestion, Nov.-Déc. N°116, pp. 41-51.
Cherni M., Fréchet M., (2006). Choisir son partenaire pour innover : critères et processus. Actes de la XVème conférence Internationale de Management Stratégique (AIMS), Annecy : 13-16 juin.
Chesnais F., (1993). The French National System of Innovation. In National Systems of Innovation: A Comparative Study. In Nelson R. et Rosenberg N. (eds.) Technical innovation and national systems. Oxford University Press, Oxford.
Chevalier-Kuszla C., (1998). La théorie de la structuration: vers une typologie des rôles du contrôle organisationnel. Revue de Gestion des Ressources Humaines, N°26-27, mai-juin, pp.81-96.
CIADT, (2004). Dossier de presse pôle de compétitivité. Disponible à l’adresse web suivante http://www.competitivite.gouv.fr/rubrique.php3?id_rubrique=8
Cicourel A.V., (1994). La connaissance distribuée dans le diagnostic médical, Sociologie du Travail, N°4, pp.427-449.
Clark A., (1997). Being there : Putting brain, body and world together again, MIT Press.
Claveau N., Tannery F., (2002). La recherche à visée ingénierique en management stratégique ou la conception d’artefacts médiateurs. In Mourgues et al. (eds), Questions de méthodes en sciences de gestion, Caen : Ed. Management et Société, pp. 212-250.
Cohen W.M., Levinthal D.A., (1990). Absorptive capacity : A new perspective on learning and innovation. Administrative Science Quarterly, Vol. 35, pp. 128-152.
Cohen W.M., Levinthal D.A., (1999). Innovation and Learning: the two faces of R&D. The Economics Journal, Vol. 99, N°397, pp.569-596.
Cohendet P., (1997). Information, connaissances et théorie de la firme évolutionniste. In Guilhon B., Huard P., Orillard M. Zimmermann J.B. (dir.), Economie de la Connaissance et Organisations, Paris, L’Harmattan.
Cohendet P., Llerena P., (1999). La Conception de la Firme comme Processeur de Connaissances. Revue d’Economie Industrielle, N°98, 2ème trimestre, pp. 211-235.
Cohendet P., Llerena P., (2001). Routines, Communities and Organizational Capabilities. DRUID's Nelson & Winter Conference, Aalborg, Danemark, June 12-15.
Cohendet P., Créplet F., Dupoüet O., (2001). Organizational Innovation, Communities of Practice and Epistemic Communities : The Case of Linux. In A. Kirman et J.B. Zimmermann (eds.), Economics with Heterogeneous Interactign Agents, Berlin : Springer Veralg, pp. 303-326.
Coleman J.S., (1988). Social Capital in the Creation of Human Capital. American Journal of Sociology, Vol. 94, pp. 95-120.
Conein B., (2004). Communauté épistémique et réseaux cognitifs: coopération et cognition distribuée, Marché en ligne et communautés d’agents, Revue d’Économie politique, pp. 141-160.
Conein B., Jacopin E., (1993). Les objets dans l'espace. Raisons Pratiques, N°4, pp. 59-84.
Cook S.D.N., Brown J.S., (1999). Bridging Epistemologies: The Generative Dance Between Organizational Knowledge and Organizational Knowing. Organization Science, Vol. 10, N°4, pp. 381-400.
Cook P., Huggins R. (2003). High-technology clustering in Cambridge (UK). In A. Amin, S. Goglio and F. Sforzi (eds.), The institutions of local development.
Coriat B., Weinstein O., (1995). Les Nouvelles Théories de l’Entreprise. Paris, Livre de Poche.
Cowan R., Foray D., (1997). The Economics of Codification and Diffusion of Knowledge. Industrial and Corporate Change, Vol. 6, N°3, pp. 595-622.
Cowan R., David P.A., Foray D., (2000). The Explicit Economics of Knowledge Codification and Tacitness. Industrial and Corporate Change, Vol. 9, N°2, pp. 211-253.
Creplet F., (2001). Pour une Approche des PME : Leur Evolution et Leur Développement dans une Perspective Cognitive – Entre Communautés d'Action et Communautés de Savoir. Thèse de Doctorat de Sciences de Gestion, Université Louis Pasteur, Strasbourg I.
Dasgupta P. David P., (1994). Toward a new economics of science. Research Policy, N°23, pp. 487-521.
Davenport T., Prusak L., (1997). Working knowledge : How organizations manage what they know. Cambridge. MASS : Harvard Business School.
David A., (1999). Logique, épistémologie et méthodologie en sciences de gestion. Acte de la VIIIème Conférence de Management Stratégique (AIMS), Chatenay-Malabry, 26 au 28 mai.
David A., (2000a). Logique, Epistémologie et Méthodologie en Sciences de Gestion : Trois Hypothèses Revisitées. In David A., Hatchuel A., Laufer R. (eds.), Les Nouvelles Fondations des Sciences de Gestion. Eléments Epistémologiques de la Recherche en Management, Vuibert-Fnege, Paris.
David A., (2000b). La Recherche-Intervention, Cadre Général pour la Recherche en Management ? In David A., Hatchuel A., Laufer R. (eds.), Les Nouvelles Fondations des Sciences de Gestion. Eléments Epistémologiques de la Recherche en Management, Vuibert-Fnege, Paris.
David A., (2000 c). La Recherche-Intervention, un Cadre Général pour les Sciences de Gestion ?. Actes de la IXième Conférence de Management Stratégique (AIMS), Paris : 24 - 26 Mai.
David A., (2004). Etudes de cas et généralisation scientifique en sciences de gestion. Actes de la XIIIème Conférence de Management Stratégique (AIMS), Le Havre : 1 - 4 juin.
Davis F.D., Bagozzi R.P., Warshaw P.R., (1989). User acceptance of computer technology: A comparison of two theoretical models. Management Science, N°35, pp. 982-1003.
de Certeau M., (1980). L'invention du quotidien. 1 : Arts de faire. Paris : UGE.
Delaunay Maculan A-M., (1997).  HYPERLINK "http://134.59.6.53/ClientBookLine/recherche/ExecuterRecherche.asp?INSTANCE=&bNewSearch=true&strTypeRecherche=connexe&cboScanIndex=TITRE&txtScanTerm=Histoire comparée de stratégies de développement des télécommunications&BACKURL=/ClientBookLine/recherche/noticesDetaillees.asp?iNotice=0&INSTANCE=&PORTAL_ID=bookline_view.xml&BACKURL=%2FClientBookLine%2Ftoolkit%2FP_requests%2Fformulaire.asp%3FGRILLE%3D01SIMPLENICE_0%26INSTANCE%3D"Histoire comparée de stratégies de développement des télécommunications, Paris : la Documentation française.
DeSanctis G., Poole S., (1994). Capturing the complexity in advanced technology use: Adaptive structuration theory. Organization Science, Vol. 5, N°2, pp. 121-147.
DeSanctis G., Poole M. S., (1991). Understanding the Differences in Collaborative System Use Through Appropriation Analysis. Proceedings, the Hawaii International Conference on System Sciences, Los Alamitos CA: IEEE Press. pp 547-553.
Despres C., Chauvel D., (2000). Knowledge Horizons, The Present and the Promise of Knowledge Management. Butterworth Heinemann, Boston.
de Terssac G., (1996). Le travail de conception : de quoi parle-t-on ?. In G. de Terssac et E. Friedberg (eds.), Coopération et conception, Ed. Octares, Toulouse, pp. 1-22.
de Vaujany FX. (2001), Gérer l’Innovation Sociale à l’Usage des Technologies de l’Information : Une Contribution Structurationniste, Thèse de doctorat de sciences de gestion, Université Jean Moulin Lyon 3, 438 p.
Dodet M., Lazar P., Papon, P., (1998). La République a-t-elle besoin de savants ? Paris, Presses universitaires de France.
Dosi G., Teece D.J., Winter S. (1990). Les frontières des entreprises : vers une théorie de la cohérence de la grande entreprise. Revue d’Economie Industrielle, Vol. 51, pp. 238-254.
Dretske F., (1981). Knowledge and the Flow of Information. Cambridge, MA: MIT Press.
Drucker P., (1992). The New Society of Organizations, Harvard Business Review. Vol. 70, N°5, Sep/Oct 1992, pp. 95104.
Drucker P., (1993). Au-delà du Capitalisme, La métamorphose de cette fin de siècle. Dunod : Paris.
Drucker-Godard C., Ehlinger S., Grenier C., (1999). Validité et fiabilité de la recherche, In Thietart R.A. et coll., Méthodes de recherche en management. Paris, Dunod, Chapitre 10, pp. 257 – 287.
Dupouët O., (2003). Le Rôle des Interactions entre Structures Formelles et Informelles dans la Firme : une Analyse en Termes de Communautés. Thèse de Doctorat de Sciences Economiques, Université Louis Pasteur, Strasbourg I.
Dyer J.H., Nobeoka K., (2000). Creating and managing a High-performance Knowledge-sharing Network: The Toyota Case. Strategic Management Journal, Vol. 21, pp. 345-367.
Ertzscheid O., Link-Pezet J., Lacombe E. (2001). Les cycles de l’interaction pour l’accès aux connaissances en sciences de l’information et de la communication : l’exemple du dispositif FORSIC. IIIème colloque du Groupe de Recherche en Information et Communication, Montpellier, 21 juin.
Estades J., Joly P.B., Mangematin, V., (1996). Dynamique des relations industrielles dans les laboratoires d’un grand organisme public de recherche : coordination apprentissage, réputation et confiance. Sociologie du Travail, N°3, pp. 391-407.
Fahey L., Prusack L., (1998). The eleven deadliest sins of knowledge management, California Management Review, Vol. 40, N°3, pp. 265-276.
Flichy P., (1995). L'innovation technique. Récents développements en sciences sociales vers une nouvelle théorie de l'innovation. Paris : La Découverte.
Foray D., (2004). Il faut concentrer les moyens sur la recherche privée, Le Monde économique, 23 novembre.
Foray D., (2000). L’Economie de la Connaissance. Collections Repères, Paris, La Découverte.
Fransman M., Krafft J., (2002). Telecommunications. In W. Lazonick (Ed.), IEBM Handbook of Economics, Thomson Learning, London, pp. 294-303.
Fukuyama F., (1995). Trust—The Social Virtues and The Creation of Prosperity. Free Press, New York.
Gaffard J.L., (1990). Économie industrielle et de l’innovation. Dalloz, 470 p.
Giboin A., Gandon F., Corby O., Dieng R., (2002). Assessment of Ontology-based Tools: A Step Towards Systemizing the Scenario Approach. In Jürgen Angele, York Sure (Eds), Proceedings of EON2002: Evaluation of Ontology-based Tools Workshop at the 13th International Conference on Knowledge Engineering and Knowledge Management EKAW 2002, Siguenza (Spain), 30th September 2002, p. 63-73.
Giboin A., Gandon F., Gronnier N., Guigard C., Corby O., (2005). Comment ne pas perdre de vue les usage(r)s dans la construction d’une application à base d’ontologies ? Retour d’expérience sur le projet KMP. Actes de la conférence Ingénierie des Connaissances IC2005, Nice.
Gibson J. J., (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
Giddens A., (1979). Central problems in social theory. Berkeley, CA : University of California Press.
Giddens A., (1984). The Constitution of Society. Berkeley, California: University of Canada Press.
Giddens A,. (1987). La constitution de la société. PUF : Paris.
Giordano Y., (2003). Les spécificités des recherches qualitatives. In Y. Giordano (coord.), Conduire un projet de recherche : une perspective qualitative, Editions EMS. pp. 11-39.
Giordano Y., Groleau, C. (2004). Institutionnalisation et théorie de la structuration : repenser les liens organisation-technologie. In I. Huault (Ed.), Théories de l'institutionnalisation. Paris: FNEGE.
Girin J., (1990). L’analyse empirique des situations de gestion : éléments de théorie et de méthode. In Martinet A.-C. (coord.), Epistémologies et Sciences de Gestion. Paris, Economica, pp. 141-182.
Godé-Sanchez C., Mérindol V., (2006). TIC et articulation des connaissances : une réflexion à partir des organisations de Défense. Séminaire CREA, Nice, 20 et 21 Octobre.
Gonard T., Durand T., (1994). Relations Recherche Publique/Industrie : Quelles Conditions d’Efficacité ?. Revue d’Economie Industrielle, N°69, pp.57-73.
Granovetter M., (1985). Economic Action and Social Structure: the Problem of Embeddedness. American Journal of Sociology, N°91, pp. 481-510.
Granovetter M., (1992). Problems of explanation in economic sociology. In Nohria N., Eccles R.G. (eds.), Networks and Organizations, Harvard Business School Press: Boston, MA, pp. 25-56.
Grant R.M., (1996). Toward a Knowledge-Based Theory of the Firm. Strategic Management Journal, Winter Special Issue, Vol.17, pp.109-122.
Grenier C., (2004). La construction collective d'un réseau de santé - le rôle du dossier patient comme Objet Frontière dans le processus de conception. Actes de la XIIIème Conférence de Management Stratégique (AIMS), Le Havre, 1-4 Juin.
Groleau C., (1999). Repenser l’action collective : la démarche des chercheurs étudiant l’informatisation en contexte organisationnel. Actes des Journées d’Etudes : Les recherches en communication organisationnelle Concepts et Théorisations, Aix-en-Provence, 3-5 juin, pp. 186-191.
Groleau C., (2000). La théorie de la structuration appliquée aux organisations: le cas des études sur la technologie. In D. Autissier et F. Wacheux, Structuration et Management des organisations, l'Harmattan, Paris, pp.155-179.
Groleau C., (2002). Structuration, Situated Action and Distributed Cognition: Rethinking the Computerization of Organizations. Système d'Information et Management, Vol. 2, N°7, pp. 13-36.
Grüninger M., Fox M.S., (1995). Methodology for the design and evaluation of ontologies. Proceedings of the IJCAI Workshop on Basic Ontological Issues in Knowledge Sharing, Available at:  HYPERLINK "http://www.ie.utoronto.ca/EIL/public/org.ps"http://www.ie.utoronto.ca/EIL/public/org.ps.
Guilhon B., Gianfaldoni P., (1990). Chaînes de compétences et réseaux. Revue d’Economie Industrielle, N° 51, 1er trimestre, pp. 97-112.
Guilhon B., (1994). Formation des compétences et apprentissage organisationnel. CEFI working paper N°94/4.
Haas P., (1992). Introduction : Epistemic Communities and International Policy Coordination. International Organization, Vol.46, N°1, pp. 1-37.
Hagedoorn J., Link A.N., Vonortas N.S., (2000). Research Partnerships. Research Policy, Vol. 29, N°4-5, pp. 567-586.
Håkanson L., (2002). Creating knowledge – the power and logic of articulation (what the fuss is all about). Paper presented for the LINK conference, November 1-2.
Hamel G., (1991). Competition for competence and interpartner learning within international strategic alliances. Strategic Management Journal, Winter Special Issue, Vol. 12, pp. 83-103.
Hatchuel A,. (1994). Les savoirs de l’intervention en entreprise. Entreprises et Histoire, N°7, pp. 59-75.
Hatchuel A., Molet H., (1986). Rational modelling in understanding human decision making: about two case studies. European Journal of Operations Research, N°24, pp. 178-186.
Henderson R., Cockburn I., (1994). Measuring Competence? Exploring Firm Effects in Pharmaceutical Research. Strategic Management Journal, Vol. 15, pp. 63-84.
Héraud J-A., Crespy C., (2005). The new governance of science faced to the process of decentralisation / devolution in France. Colloque ESRC Governing Science : Towards an Interdisciplinary Narrative of Change ?, SURF Center, University of Salford, Manchester, 24-25 novembre.
Hollan J., Hutchins E., Kirsh D., (2000). Distributed cognition: toward a new fondation for human-computer interaction research. ACM Transactions on Computer-Human Interaction, Vol. 7, N°2, June.
Hutchins E., (1990). The Technology of Team Navigation. In J.Galegher, R.E. Kraut and C. Egido (Eds), Intellectual Teamwork: Social and Technical Bases of Collaborative Work, Erlbaum Hillsdale, NJ.
Hutchins E., (1991). The social organization of distributed cognition. In L. B. Resnick, J. M. Levine, S.D. Teasley (Eds.), Perspectives on socially shared cognition, Washington, DC: APA.
Hutchins E., (1995). Cognition in the Wild, Cambridge, MA MIT Press.
Inkpen A.C., Dinur A., (1982). Knowlegde Management Processes and International Joint Ventures. Organization Science, Vol. 9, N°4, pp. 454-468.
Jarke M., Tung Bui X., Carroll J.M., (1998). Scenario Management : An Interdisciplinary Approach. Requirements Engineering, N°3, pp. 155-173.
Jeantet A., Tiger H., Vinck D., Tichkiewitch S., (1996). La coordination par les objets dans les équipes intégrées de conception de produit, In G. de Terssac et E. Friedberg (eds.), Coopération et conception, Ed. Octares, Toulouse, pp. 87-100.
Jeantet A., (1998). Les objets intermédiaires dans la conception. Éléments pour une sociologie des processus de conception, Sociologie du travail, N° 3.
Johnson B., Lorenz E., Lundvall B.-Å., (2002). Why all this fuss about codified and tacit knowledge? Industrial and Corporate Change, Vol. 11, N°2, pp. 245-262.
Jolly D., (2001). Alliances interentreprises, Vuibert.
Jones M., (1999). Structuration and IS. In Re-thinking Management Information Systems, Currie W.L., Galliers R.D., Oxford University Press, 509 p.
Jouët J., (1993). Usages et pratique des nouveaux outils de communication. In L.Sfez, Dictionnaire critique de la communication, Paris, PUF, Vol. 1, pp. 371-376.
Jouët J., (2000). Retour critique sur la sociologie des usages. Réseaux, N° 100.
Kaminska-Labbé R., Sachs W., (2006). Using Organization Theory in Organization Design, Conférence du Céram, octobre.
Kaminska-Labbé R., Thomas C., (2007). Bill McKelvey : Dynamique Organisationnelle et Sciences de la Complexité. Dans T. Loilier et A. Tellier (eds.), Les grands auteurs en Management Stratégique, Editions EMS, à paraître.
Kirsh D., (1995). The intelligent use of space. Artificial Intelligence, Vol. 73, N°1-2, pp. 31-68.
Kirsh D., (1999). Distributed cognition, coordination and environment design. Proceedings of the European Cognitive Science Society.
Kirsh D., (2001). The context of work. Human-computer interaction, Vol. 16, pp. 305-322.
Kline S.J., Rosenberg N., (1986). An Overview of Innovation – The Positive Sum Strategy. Academy of Engineering Press, pp.275.
Kogut B., Zander U., (1992). Knowledge of The Firm, Combinative Capabilities, and The Replication of Technology. Organization Science, Vol. 3, N°3, pp. 383-397.
Kogut B., Zander U., (1996). What Firms Do? Coordination, Identity and Learning. Organization Science, Vol. 7, N°5, pp. 502-518.
Krafft J., (2004). Entry, exit and knowledge: evidence from a cluster in the info-communications industry. Research Policy, N°33, pp. 1687-1706.
Kuhn T., (1962). La structure des révolutions scientifiques. Editions Champs Flamarion.
Lacroix J-G., (1994). Entrez dans l'univers merveilleux de Vidéoway. Dans De la télématique aux autoroutes électroniques. Le grand projet reconduit, J-G Lacroix et G. Tremblay, Presses Universitaires de Grenoble, Grenoble, pp.137-162.
Laredo P., Mustar P., (1998). French research and innovation policy: two decades of transformation. In Laredo P. et Mustar P. (eds), Research and innovation polities in the new global economy : an international comparative analysis, chap. 13 , pp. 447-510.
Laredo P., Mustar P., (2002). Innovation and Research Policy in France (1980-2000) or the disappearance of the Colbertist State. Research Policy, Vol. 31, N°1, pp.55-72.
Laredo P., Mustar P., (2003). Politiques publiques de recherché et d’innovation. Encyclopédie de l’innovation, pp. 613-626.
Latour B., (1989), La science en action. La Découverte, Paris.
Latour B., Woolgar S., (1979). Laboratory lifie : the social construction of scientific fact. Sage : Los Angeles.
Lauriol J., Guérin F., Hédia Z., (2004). La validation des acquis de l’expérience en France : un objet frontière ? Actes de la conférence de l’Association Francophone des Ressources Humaines, Québec, Canada, 1-4 septembre.
Lave J., Wenger E., (1990). Situated Learning: Legitimate Peripheral Participation. Cambridge University Press New York, NY.
Lazaric N., Longhi C., Thomas C., (2004). From geographical to organized proximity: the case of Telecom Valley in Sophia Antipolis. 4th Congress on Proximity Economics: Proximity, Networks and Co-ordination, IDEP-LEST-GRECAM, Marseille, June 17-18.
Lazaric N., Mangolte P.A., Massue, (2003). Articulation and codification of collective know-how in the steel industry: evidence from blast furnace control in France. Research Policy, Vol. 32, pp. 1829-1847.
Lazaric N., Thomas C., (2003). Coordination and codification of knowledge inside a network or the building of an epistemic community: The Telecom Valley case study. 19th EGOS Conference, July 3th - 5th, Copenhagen, Denmark.
Lea M., O'Shea T., Fung P., (1995). Constructing the Networked Organization: Content and Context in the Development of Electronic Communications. Organization Science, Vol. 6, N°4, pp. 462-478.
Lee Y.S., (2000). The sustainability of university-industry research collaboration: an empirical assessment. Journal of Technology Transfer, Vol. 25, pp. 111-133.
Le Moigne J.-L., (1990). Epistémologies constructivistes et sciences de l’organisation. In Martinet A.-C., (coord.), Epistémologies et Sciences de Gestion, Paris, Economica, pp. 81-140.
Le Moigne J.L., (1995). Le constructivisme, Tome 2 : les épistémologies. Paris : ESF éditeur.
Leonard-Barton D., (1995). Wellsprings of Knowledge: Building and Sustaining the Sources of Innovation. Harvard Business School Press, Boston, MA.
Lesser E., Prusak L., (1999). Communities of Practice, Social Capital and Organizational Knowledge. Information Systems Review, Vol. 1, N°1, pp. 3-10.
Levy R., (2005). Les doctorants CIFRE: médiateurs entre laboratoires de recherche universitaires et entreprises, Revue d’Economie Industrielle, No111, pp. 79-96.
Levy R., (2006). La place de la recherché universitaire dans les systèmes d’innovation: une approche territorialise, Thèse de doctorat en Sciences Economiques, Faculté de Sciences Economiques et de Gestion de Strasbourg.
Lewin K., (1951). Field theory in social science: Selected theoretical papers. In D. Cartwright, Ed. New York: Harper Torchbooks.
Longhi C., (1999). Networks, collective learning and technology development in innovative high technology regions: the case of Sophia Antipolis. Regional Studies, June, Vol. 33, N°4.
Mairesse J., (2002). La nouvelle économie conjugue l’avènement de l’économie de la connaissance et l’essor des technologies de l’information et de la communication. INSEE Méthodes.
Mallein P., (1997). L’intégration sociale des technologies d’information et de communication : la conception assistée par l’usage. Paris, Commissariat Général au plan, 25 Janvier 1997.
Mallein P., Toussaint Y., (1994). L'intégration sociale des TIC : une sociologie des usages, Technologie de l'information et société, Vol. 6, N°4, pp. 315-335.
Manor B., Rynes S., Bartunek J.M., Daft R.L., (2001). Across the great divide : knowledge creation and transfer between practitioners and academics, Academy of Management Journal, Vol. 44, N°2, pp. 340-355.
March J.G., (1991). Exploration and exploitation in organizational learning. Organization Science, Vol. 2, N°1, pp. 71-87.
March J. G., Simon H. A., (1958). Organizations. John Wiley & Sons, Inc., New York.
Martinet A.-C., (1990). Grandes questions épistémologiques et sciences de gestion. In Martinet A.-C. (coord.) Epistémologies et Sciences de Gestion. Paris, Economica, pp. 9-29.
Marty F., (2000). Renforcer l'action coordonnée. Working Paper, Observatoire économique de la défense, Octobre.
McKelvey B., (2002). Model-Centered Organization Science Epistemology. In. Baum J.A.C. (ed.), Companion to Organizations. Oxford, UK: Blackwell, pp. 752–780.
McKelvey B., (1997) Quasi-natural Organization Science. Organization Science, Vol. 8, N°4. pp. 351–381.
Mer S., Tichkiewitch S., Jeantet A., (1995). Les objets intermédiaires de la conception : modélisation et communication. Dans J. Caelen et K. Zreik, Le communicationnel pour concevoir, Europia Productions : Paris.
Merton RK., (1968). The Matthew effect in science. Science, Vol. l59, pp. 56-63.
Meyer-Krahmer F., et Schmoch U., (1998). Science-based technologies: university-industry interactions in four fields. Research Policy, Vol. 27, pp. 835-851.
Midler C., (1996). Modèle gestionnaire et régulation économique de la conception. In G. de Terssac et E. Friedberg (eds.), Coopération et conception, Ed. Octares, Toulouse, pp. 63-85.
Midler C., (1993). L’auto qui n’existait pas ; Mangement des projets et transformation de l’entreprise. InterEditions, Paris.
Millerand F., (1998). Usages des NTIC : les approches de la diffusion, de l'innovation et de l'appropriation, COMMposite, v98.1 ( HYPERLINK "http://commposite.uqam.ca/98.1/articles/ntic_1.htm"1ère partie) et v99.1 ( HYPERLINK "http://commposite.uqam.ca/99.1/articles/ntic_2.htm"2e partie), en ligne : http://commposite.uqam.ca/98.1/articles/ntic_1.htm
Millerand F., (2003). L’appropriation du courrier électronique en tant que technologie cognitive chez les enseignants chercheurs universitaires. Vers l’émergence d’une culture numérique ?. Thèse de doctorat en communication, Université de Montréal.
Moisdon J-C., (1997). Du mode d'existence des outils de gestion. Editions Seli Arsan, Paris.
Mothe C., (1997). Comment réussir une alliance en recherche et développement. L’Harmattan, Paris.
Moran P., Ghoshal S., (1996). Value Creation by Firms. In Keys J.B., Dosier L.N. (eds.) Academy of Management Best Papers Proceedings, pp. 41-45.
Moreau F., Bernasconi M., (2001). Etude annuelle sur le développement endogène de Sophia Antipolis et des Alpes-Maritimes. Working Paper Ceram Hiver.
Mustar P., (1998). Les transformations du système de recherche français dans les années quatre-vingt. Annales des Mines, février 1998, pp. 16-21.
Mustar P., Callon M., (1992). Les réseaux de l’innovation.
Mustar P. ,Larédo P., (2002). Innovation and research policy in France (1980-2000) or the disappearance of the Colbertism state. Research Policy, N°31, pp. 55-72.
Nahapiet J., Ghoshal S., (1998). Social Capital, Intellectual Capital, and the Organizational Advantage. Academy of Management Review, Vol. 23, N°2, pp. 242-266.
Nelson R.R., (1991). Why do Firms differ and how does it matter? Strategic Management Journal, Winter Special Issue. Vol. 12, pp. 61-74.
Nelson R.R., Winter S.G., (1982). An Evolutionary Theory of Economic Change. Harvard University Press.
Newell A., (1981). The knowledge level, AI Magazine, N°2, pp. 1-20.
Nohria N., Eccles G., (1992). Networks and Organizations: Structure, Form and Action. Harvard Business School Press, Boston, MA.
Nonaka I., (1994). A Dynamic Theory of Organizational Knowledge Creation. Organization Science, Vol. 5, N°1, pp. 14-37.
Nonaka I., Takeuchi H., (1995). The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation. New York : Oxford University Press.
Nonaka I., Toyama R., Konno N., (2000). SECI, ba and leadership: a unified model of dynamic knowledge creation. Long Range Planning, Vol. 33 N°1, pp. 5-34.
Nonaka I., Toyama R., Byosière P., (2001). A theory of organizational knowledge creation: Understanding the dynamic process of creating knowledge. In Dierkes M., Berthoin Antal A., Child J. and Nonaka I. (eds.), Handbook of Organizational Learning and Knowledge, Oxford, Oxford University Press, pp. 491-517.
Nooteboom B., (2000). Learning and Innovation in Organizations and Economies. Oxford, Oxford University Press.
Norman D., (1988). The psychology of everyday things, New York: Basic Books.
Norman D., (1991). Cognitive artifacts. In Desiging Interaction, Psychology at the human Computer Interface, (ed.) J.M. Carroll, Cambridge Series on Human Computer Interaction, Cambridge University Press.
Norman D,. (1993). Les artefacts cognitifs. Raisons pratiques, N°4, pp. 15-34.
OCDE, (2000). Science, technologie et innovation dans la nouvelle économie. Synthèses OCDE.
Orlikowski W., (1992). The duality of technology: rethinking the concept of technology and organizations. Organization Science, Vol. 3, N°3, pp. 398-428.
Orlikowski W., (1996). Improvising Organizational Transformation over Time: A Situated Change Perspective. Information Systems Research, Vol. 7, N°1, pp. 63-92.
Orlikowski W., (1999). L'utilisation donne sa valeur à la technologie. L'Art du Management de l'Information (supplément Les Echos), 20 novembre.
Orlikowski W., (2000). Using technology and constituting structures: a practice lens for studying technology in organizations. Organization Science, Vol. 11, N°4, pp.404-428.
Orlikowski W., Iacono S., (2001). Research Commentary: Desperately seeking the IT in IT Research-A Call to Theorizing the IT Artifact. Information Systems Research, Vol. 12, N°2, pp. 121-134.
Orlikowski W., Robey D., (1991). Information Technology and the Structuring of organisations. Information Systems Research. Vol. 2, pp. 143-169.
Orr J., (1990). Talking about machines: An ethnography of a Modern Job. Cornell University.
Palmer S., (1978). Fundamental aspects of cognitive representation. In E. Rosh & B.B. Lloyd, eds, Cognition and Categorization, Hillsdale, NJ: Lawrence Erlbaum Associates.
Papadimitriou K., (2004). Projets de transfert de meilleures pratiques dans le secteur bancaire : approche par les objets intermédiaires de la conception, Thèse soutenue à l’Université Jean Moullin
Papon P., (1998). Research institutions in France: between the republic of science and the nation-state in crisis. Research Policy, Vol. 27, pp. 771-780.
Pascal A., (2005). Une démarche de conception orientée usage : le cas du projet KmP, 3ième doctorales du GDR TIC et Société, Paris : Juin.
Pascal A., Rouby E., (2004). Une méthode de construction des scénarios d’usage à la croisée des théories de la cognition distribuée et de la structuration. Conférence 'Les approches cognitives en Sciences de Gestion: transversalité des objets et méthodes innovantes ?', Evry, France, 30 septembre.
Pascal A., Rouby E., (2006). Construire des scénarios d’aide à la conception de solutions TIC : une approche cognitivo-structurationniste, Le cas KMP. Dans Rémi Lehn, Mounira Harzallah, Nathalie Aussenac-Gilles, Jean Charlet (eds.), Annales de la semaine de la connaissance, Tome 2.
Pascal A., Thomas C., (2006). Appropriation des TIC : vers une méthodologie de co-conception orientée usage : le cas KMP. Ouvrage collectif post-journée, Journée de Recherche : L’appropriation des outils de gestion : vers de nouvelles perspectives, Presses de l’Université de Saint Etienne.
Pavitt K., (1998). The social shaping of the national science base. Research Policy, Vol. 27, pp. 793-805.
Penrose E., (1959). The Theory of the Growth of the Firm. Basil Blackwell & Mott Ltd, Oxford.
Perriault J., (1989). La logique des usages. Essais sur les machines à communiquer. Paris, Flammrion.
Perrin J., (1994). Pilotage et évaluation des processus de conception, L’Harmattan, Paris.
Piaget J., (1968). Le structuralisme. PUF, coll. Que sais-je ?, Paris.
Pinch T., Bijker W., (1984). The social construction of facts and artifacts: Or how the sociology of science and the sociology of technology might benefit each other, Social Studies of Science, Vol. 14, N° 3, pp. 399–441.
Plane J.M., (2000). Méthodes de recherche-intervention en management. L’Harmattan.
Polanyi M., (1958). Personal Knowledge. Routledge, London.
Polanyi M., (1966). The Tacit Dimension. London: Routledge and Kegan Paul.
Poole M.S., De Sanctis G., (1990). Understanding the Use of Group Decision Support Systems: The Theory of Adaptive Structuration, In Organizations and Communication Technology, J. Fulk and C. Steinfield, (eds), Sage Newburry Park, CA, pp.173-193.
Poole M.S., De Sanctis G., (1992). Microlevel Structuration in Computer-Supported Group Decision Making. Human Communication Research, Vol. 19, N°1, pp. 5-49.
Porter M., (1999). Clusters and the New Economics of Competition. Harvard Business. Review, Dec, pp. 77-90.
Prax J.Y., (2000). Le Guide du Knowledge Management. Paris, Dunod.
Proulx S., (1994). Une lecture de Michel de Certeau : L’invention du quotidien, paradigme de l’activité des usagers. Communication, Vol. 15, N°2, pp. 181-209.
Proulx S., (2005). Penser les usages des TIC aujourd’hui : enjeux, modèles, tendances. In Lise Vieira et Nathalie Pinède (éds.), Enjeux et usages des TIC : aspects sociaux et culturels, Tome 1, Presses universitaires de Bordeaux, Bordeaux, pp. 7-20.
Proulx S., Laberge M-F., (1995). Vie quotidienne, culture télévisuelle et construction de l'identité familiale, Réseaux, N°70, CNET, Paris, pp. 121-140.
Putnam R.D., (1993). The prosperous community: social capital and public life. The American Prospect, Vol.13, pp. 35–42.
Rallet A., Torre A., (2004). Proximité et localisation. Economie Rurale, N°280, pp. 25-41.
Ratier C., (2000). Sensibilisation à la démarche d'analyse du travail, CNRS – direction des services informatiques, www.dsi.cnrs.fr/bureau_qualite/ergonomie/documentation/anatravail.pdf
Richardson G.B., (1972). The Organisation of Industry. The Economic Journal, September, pp. 883-896.
Rogers E., (1995). Diffusion of Innovation (1962), Simon & Schuster Inc, 4th edition, 1995.
Rojot J., (2005). Théorie des organisations, Editions ESKA, 534 p.
Rojot J., (1998). La théorie de la structuration. Revue de Gestion des Ressources Humaines, N°26-27, pp. 5-19.
Rojot, J., (1996). Fondements théoriques du pouvoir: des origines du néo-institutionnalisme à un individualisme méthodologique complexe. In Collections Histoire, Gestion, Organisations, Presses de l'Université de Toulouse.
Romme A.G.L., (2003). Making a Difference: Organization as Design. Organization Science, Vol. 14, N°5, pp. 558-573.
Romme A.G.L., (2004). Commentary: Action Research, Emancipation and Design Thinking. Journal of Community and Applied Social Psychology, Vol. 14, pp. 495-499.
Romme A.G.L., Endenburg, G. (2006). Construction Principles and Design Rules in the Case of Circular Design. Organization Science, Vol. 17, N°2, pp. 287-297.
Rosenberg N., (1982). Inside the black box, technology and economics, Cambridge University Press.
Rouby E., Thomas C., (2004). La codification des compétences organisationnelles : l’épreuve des faits. Revue Française de Gestion, mars/avril, N°149, pp. 51-68.
Roy B., (1992). Science de la décision ou science de l’aide à la décision. Revue Internationale de Systémique, Vol. 6, N°5, pp. 497-529.
Roy B., (1985). Méthodologie multicritère à la décision- Méthodes et cas. Economica.
Ruffieux B., (1991). Micro-système d'innovation et formes spatiales de développement industriel. Dans Arena, R. et alii (ss. la dir.), Traité d'économie industrielle, Paris, Economica, pp. 373-382.
Salembier P., (1996). Cogntion(s) : située, distribuée, socialement partagée … Bulletin du LCPE, École Normale Supérieure, Paris.
Salembier P., (2002). Cadres conceptuels et méthodologiques pour l'analyse, la modélisation et l'instrumentation des activités cooperatives situées. Systèmes d'Information et Management, Vol. 7, N°2, pp. 37-56.
Schartinger D., Rammer C., Fischer M.M. Frohlich J., (2002). Knowledge interactions between universities and industry in Austria: sectoral patterns and determinants. ResearchPolicy, N°31, pp. 303- 328.
Schmoch U., (1997). Die Interaktion von akademischer und industrieller Forschung: Ergebnisse einer Umfrage an deutschen Hochschulen. ISI—Diskussionspapier. FhG-ISI, Karlsruhe.
Schumpeter J.A., (1934). The Theory of Economic Development. Cambridge MA, Harvard University Press.
Schwenck C.R., (1984). Cognitive Simplification Processes in Strategic Decision-Making. Strategic Management Journal, Vol. 5, pp. 111-128.
Schwenck C.R., (1988). The cognitive perspective on strategic decision making. Journal of Management Studies, Vol. 25, N°1, pp. 41-55.
Siegel D., Waldman D., Atwater L., Link A., (2003). Commercial knowledge transfers from universities to firms: improving the effectiveness of university–industry collaboration. Journal of High Technology Management Research, Vol. 14, pp. 111–133.
Simon H.A., (1996). The Sciences of the Artificial. (3rd ed.) Cambridge MA., MIT Press.
Simon H.A., (1981). Le nouveau management. Paris, Economica.
Star S.L., Griesemer J., (1989). Institutional ecology, Translation and coherence. Amateurs and professionals in Berkeley’s Museum of vertebrate zoology, 1907-1939 , Social Studies of Science, N°19, pp.387-420.
Stephan P., (1996). The economics of science. Journal of Economic Literature, N°34, pp.1199-1235.
Stubbart C., (1989). Cognitive Science: a Missing Link in Strategic Management Research. Journal of Management Studies, Vol. 26, N°4, pp. 325-347.
Tarondeau J.-C., (2002). Le Management des Savoirs. Collection Que sais-je ?, Paris, PUF.
Taylor J. R., Groleau C., Heaton L., Van Every E., (2001). The Computerization of Work: A Communication Perspective. Thousand Oaks, CA: Sage.
Thévenot J., (2001). Evolution des perspectives de la conception des SI: analyse longitudinale des enjeux et des réponses méthodologiques. Systèmes d'Information et Management, Vol. 6, N°2, pp. 117-132.
Thiétart R-A. et coll., (1999). Méthodes de recherche en management. Dunod : Paris.
Thomas C., (2002). Knowledge Management Platform : l'expérimentation d'une solution de knowledge management inter-firmes et inter-institutions. Deuxièmes Rencontres Régionales CERAM/IHESI, Intelligence Economique & Management des Ressources Humaines, Sophia-Antipolis, France, 24 mai.
Thomas C., (1997). Déterminants et Evolution de la Hiérarchie au sein des Organisations. Thèse de doctorat en Sciences de Gestion, Université de Nice-Sophia Antipolis.
Thomas C., (2006). Communautés hybrides inter-firmes : le pouvoir structurant de la codification. In Proulx, Poissant et Sénécal, Communautés virtuelles : penser et agir en réseau, Presses de l’Université de Laval. (sous presse).
Thomas C., Behar C., Barlatier P.J., (2006). Management stratégique d’un territoire et dynamique des connaissances : de la visibilité à la lisibilité. Ateliers de l’AIMS : Stratégies, Espaces et Terrioires, 16 novembre.
Thursby J.G., Jensen R., Thursby M.C., (2001). Objectives, characteristics and outcomes of university licensing: a survey of major US universities. Journal of Technology Transfer, Vol. 26, pp. 59–72.
Toussaint Y., (1992). La parole électrique. Du minitel aux nouvelles machines à communiquer. Esprit, N°186, pp. 127-139.
Vaast E., (2002)., De la communauté de pratique au réseau de pratique par les utilisations d’intranet. Quatre études de cas. Systèmes d’Information et Management, N° 2, Vol. 72.
Vedel T., (1994). Introduction à une socio politique des usages, dans Médias et nouvelles technologies. Pour une socio-politique des usages. Sous la direction de A. Vitalis, Rennes : Éditions Apogée.
Venkatesh V., Morris M. G., Davis G.B., Davis F. D., (2003). User acceptance of information technology: Toward a unified view. MIS Quarterly, Vol. 27, N°3, pp. 425-478.
Venzin M., von Krogh G., Roos J., (1998). Future Research Into Knowledge Management. In G. Von Krogh, J. Roos and D. Kleine (eds), Knowing in Firms, Sage Publications, London.
Vinck D., (2006). Dynamique d’innovation et de conception et rôle des objets intermédiaires. GDR TIC et Société, Autrans, Septembre.
Vissac-Charles V., (1996). Caractérisation de la dynamique des réseaux. Application à la gestion des projets d'innovation. In MÉADEL C., RABEHARISOA V. (ed.), Représenter, Hybrider, Coordonner, Paris, Ecole des mines de Paris, pp. 297-307.
Vitalis A., (1994). La part de citoyenneté dans les usages, dans Médias et nouvelles technologies. Pour une socio-politique des usages. Sous la direction de A. Vitalis, Rennes : Éditions Apogée, pp. 35-44.
Virgili S., (2005). La construction mutuelle de la technologie et de l’organisation en phase de développement : une perspective communicationnelle appliquée à l’étude d’un ERP. Thèse de doctorat en Sciences de Gestion, Université de Nice-Sophia Antipolis.
Volle M., (2000). E-conomia. Economica, Paris.
Von Hippel E., (1976). The Dominant Role of Users in the Scientific Instrument Innovation Process. Research Policy, Vol. 5, N°3, pp. 212-39.
Von Hippel E., (1988). The Sources of Innovation. Oxford University Press : New York.
Young R.M., Barnard P.J., (1987). The use of scenarios in human-computer interaction research: Turbocharging the tortoise of cumulative science. In J.M. Carroll & P.P. Tanner, (eds), Proceedings of CHI+GI'87: Human Factors in Computing Systems and Graphics Interface. New York: ACM, pp. 291-296.
Young R.M., Barnard P.J., Simon A., Whittington J., (1989). Programmable user models for predictive evaluation of interface designs. In K. Bice & C.H. Lewis, (eds), Proceedings of CHI'89: Human Factors in Computing Systems, New York, ACM, pp. 15-19.
Weick K. E., (1969). The social Psychology of Organizing. Reading, MA: Addison Wesly.
Weick K.E., (1990). The Vulnerable System. An Analysis of the Tenerife Air Disaster. Journal of Management, Vol. 16, pp. 571-593.
Wenger E., (1998). Communities of Practice, Learning, Meaning, and Identity. Cambridge University Press.
Zack M., (1999). Managing codified knowledge. Sloan Management Review, Vol. 40, N°4, summer, pp. 45-58.
Zacklad M., (2005). Introduction aux ontologies sémiotiques dans le Web Socio Sémantique. Actes de la conférence Ingénierie des Connaissances IC2004, Nice.
Zucker L.G., Darby M.R., (1996). Star scientists and institutional transformation: patterns of invention and innovation in the formation of the biotechnology industry. Proceedings of the National Academy of Science, Vol. 93, N°23, pp. 12709–12716. Annexes
Annexe 1 : les grilles d’entretiens utilisées dans le projet KMP
Annexe 1.1. : Questionnaire pour entretiens exploratoires
L’objectif de ces entretiens était de comprendre ce que les acteurs du terrain entendaient par compétences, connaissances et d’affiner notre compréhension de la dynamique locale. De fait, l’équipe projet a essentiellement mis en évidence des thèmes pour orienter l’entretien.

IDENTIFICATION DE L'ENTREPRISE
Informations générales Intervenant :
Raison sociale : Date :
Adresse :
N° de tél. et de Fax :
Dirigeant :
N° SIRET ou SIREN :
Structure juridique
Statut :
Etablissement unique indépendant :
Siège social de l’entreprise (si oui, quelles sont les filiales ?) :
Filiale (si oui, quel est le siège social ?) :
Forme sociétaire :
Nationalité :
Composition du capital :
Date de création de l'entreprise :
Date d’appartenance à Telecom Valley :
Taille du site présent sur Sophia Antipolis
Effectifs :
Chiffre d'affaires :
Bénéfice net :
Part de marché (estimation) :
Intérêt de la présence sur le site de Sophia :
Activité
Domaine(s) d'activité :
Secteur d'activité :
Métier(s) :
Nature des biens produits et/ou des services offerts :
Type(s) de clientèle visé(s) :
Description du secteur d'activité et de son environnement :
" Turbulence du secteur: ƒð très élevée ƒð élevée ƒð moyenne ƒð faible ƒð très faible
" Croissance du marché :
" Concurrents directs :
" Autres (précisez) :
" Documents : (organigramme, informations comptables et financières, plaquettes publicitaires, manuel qualité, articles, rapport d’activité…)
Quels sont le ou les documents officiels qui vous paraîtront utile d’inclure dans la base de compétences ?
IDENTIFICATION DE LA PERSONNE INTERVIEWEE :
Nom :
Prénom :
Fonction dans l'entreprise :
Ancienneté dans l'entreprise :
Coordonnées :

Thématiques à questionner :
1- Les compétences technologiques
2- Produits et services
3- Compétences managériales
4- Processus organisationnelle
5- Relations Groupe-filiales
6- Compétences relationnelles :
7- les interactions au sein de la technopole
8- Base de connaissances

Annexe 1.2. : Questionnaire pour entretiens semi-directifs : les acteurs industriels et institutionnels
Grille d'Entretien scénarios d'usage
Scénarios 1 et 2
Rappels sur l’objectif
Le projet KMP vise à créer un service web de compétences afin de faciliter les partenariats entre les entreprises de Telecom Valley, mais aussi entre les entreprises et les organismes de recherche publics.
Pour l’élaboration de ce site, une des étapes consiste à cartographier les compétences des entreprises de Telecom Valley (TV), c’est-à-dire à les formaliser et les intégrer dans une base de connaissances.
Afin de créer un outil qui correspond aux usages des membres de la TV (entreprises et organismes de recherche) il est nécessaire d'étudier au préalable les pratiques existantes.
Remarques préalables
Les rubriques I, II, III ont pour objectif de capturer de la connaissance en savoir-faire de partenariat de l’organisme. Il s’agit d'une description des pratiques actuelles et souhaitées de l'organisme de recherche en matière de partenariat.
Les rubriques IV et V et VI concernent plus spécifiquement l’utilisateur du service web. Il s’agit d'une description des informations que l'utilisateur recherche et fournit lorsque son organisme de recherche établit un partenariat mais aussi comment il échange des informations avec des collègues d’autres organismes de recherche de TV et de déterminer enfin l’utilité et les contraintes du service web à son niveau.

Date de l’entretien : ………………………………………….
Nom de l'organisme de recherche et du labo : …………………………………

Présentation de l’interviewé :
Nom de l’interlocuteur :
Ses fonctions exactes dans l’organisme :
Son ancienneté dans l’organisme, dans la fonction :
I. Les acteurs du scénario et leur rôle

1) Quelles sont vos fonctions exactes dans l’entreprise ? votre ancienneté ? Pouvez-vous nous décrire vos droits et devoirs pour ce rôle ? (éthique, contrôle, évaluation, incitation/ moyens matériels et immatériels, autonomie décisionnelle)
2) Quelle est l’activité de votre entreprise sur Sophia ? Est-elle spécialisée (évolution sur les 5 dernières années) ? Pouvez-vous définir vos droits et devoirs dans le tissu sophipolitain (moyens matériels et immatériels, distribution du pouvoir) ?
3) Qu’est-ce qui a motivé l’installation de votre firme sur le site de Sophia ?
4) Comment percevez-vous l’évolution des implantations sur le site de Sophia ? Comment les expliquez-vous ? (Environnement, instituts de normalisation, proximité techno, effets de masse, autres…)
5) Votre entreprise a-t-elle des partenaires ? Se situent-ils en amont ou en aval de votre processus de production ou de votre activité ? Pouvez-vous les situer sur la chaîne de valeur ? nombre chaque année?
6) Possédez-vous une classification de vos partenaires ? Si oui, laquelle ?
7) Que vous apportent-ils ? (Compétences ou ressources recherchées, domaines d’activités concernés : conception, approvisionnement, fabrication, commercialisation…)
8) Quelles sont les modalités du ou des partenariats : (assistance technique, forfait, groupe projet, module…)
9) Recherchez-vous de nouveaux partenaires ? Dans quels domaines ? Dans quels objectifs ? Quelles seraient les modalités de ces partenariats ?
10) Existe-t-il d’après vous des firmes ou des associations sur le site de Sophia qui jouent un rôle clé en matière de partenariat (stratégie partenariale prépondérante) ? Caractéristiques ? (capacité à renouveler leurs compétences, capacité à faire des accords de R&D, capacité à répondre à des projets européens…) Rôle au sein de la TV ?
11) Comment évaluez-vous le rôle de l’association Telecom Valley dans la mise en œuvre de partenariat ? (règles de bonne conduite ?)
12) Participez-vous à d’autres associations ? si oui, jouent-elles un rôle dans le montage de partenariats.
13) Avez-vous personnellement des contacts avec des collègues appartenant au même service que le vôtre dans une autre entreprise de TV? Si oui sous quelle forme ? Avec des collègues appartenant à un autre service que le vôtre dans une autre entreprise de TV? Si oui sous quelle forme ?
II. Les ressources mobilisées dans le cadre des partenariats

14) Existe-t-il un service et / ou des personnes spécifiquement dédié(s) à l’établissement de partenariats ? D’autres services et/ou personnes sont-ils impliqués (statut/rôle/tâches/interaction)? Pourraient-ils être des futurs utilisateurs de KMP ? en voyez-vous d’autres ?
15) Quels supports TIC utilisez-vous ? (Groupware, workflow, EDI, messagerie électronique type Internet, visio-conférences, Intranet avec des éléments référencés, listes de diffusion, newsletters, forum, chat, mail, ICQ…) ? dans quel but ?
16) Avez-vous des restrictions ou facilités individuelles, de votre entreprise ou de la communauté TV à l’usage des TIC ?
17) Quelles sont les difficultés que vous rencontrez lors de l’utilisation de ces supports ? (Problèmes de perte de confidentialité, répartition des tâches, confusion avec la hiérarchie, distribution anarchique des infos, inefficience…)
III. Le processus

18) Comment définiriez-vous dans l’idéal un partenariat ? un bon partenaire ? et votre entreprise ? Qu’est ce qui selon vous garantit le succès d’un partenariat ? (Rôle du contexte, langage commun, proximités, effets d’apprentissage, capacité à anticiper la valeur créée…) ? Définir des grandes étapes clés. Quels sont les intérêts et enjeux des partenariats (pour vous et votre entreprise) ?
19) A quelle occasion ou à quel moment décidez-vous d’enclencher ce processus ? Qui contactez-vous ?
Pouvez-vous nous décrire globalement ou étape après étape dans votre pratique les différentes activités qui composent le processus de montage d’un partenariat ? sont-elles séquentielles ?
Existe-t-il des points de contrôle ? des documents internes qui formalisent le processus ?
20) Comment communiquez-vous avec le ou les partenaires ? Comment mettez-vous en œuvre la coordination et la coopération au cours du projet ? (contrat formel / relations informelles ; des règles de travail pour gérer les problèmes de confidentialité, répartir les tâches et échanger des informations)
Ces règles sont-elles :
issues de coopérations antérieures avec un ou plusieurs partenaires ;
issues de votre entreprise principalement ;
mises en place par votre donneur d’ordres ?
D’après vous, quelles sont les caractéristiques internes de votre firme qui assurent une bonne appropriation de la valeur créée par le partenariat ? (base de connaissances cohérente, service R&D performant, processus de KM…)

I.V. Contenu des informations recherchées et fournies lors de la mise en œuvre d’un partenariat
Informations recherchées
21) Comment repérez-vous les compétences dans votre environnement ?
Pensez-vous avoir une bonne connaissance des opportunités locales de partenariat ? Quel est leur impact sur le développement de nouveaux projets ?
22) Comment sélectionnez-vous le bon partenaire ? Comment évaluez-vous la motivation du ou des partenaires ? Comment anticipez-vous et évaluez-vous la valeur créée par le partenariat ?
23) Pouvez-vous énumérer les informations génériques que vous souhaitez connaître de vos partenaires ? Quel est le degré de précision que vous souhaiteriez avoir en matière de description des produits ou services qu’un partenaire vous propose ?
24) Pouvez-vous définir les compétences maîtrisées par un partenaire potentiel que vous souhaiteriez connaître ? (Organisationnelles,  technologiques, R&D, relationnelles)
Quel niveau de description recherchez vous concernant ces compétences ?

Données et informations fournies
25) Quelles sont les données et informations que vous souhaiteriez communiquer à vos partenaires actuels et potentiels en matière de description des produits ou services que votre entreprise propose ?
26) Trouvez-vous que l’information contenue dans votre site web présente correctement vos produits et services ? Est-ce que votre site permet d’entrer directement en contact avec des personnes de l’entreprise ? Si oui, lesquels ? Est-ce que cela vous paraît adapté ?
27) Pouvez-vous nous fournir un exemple de compétence que vous maîtrisez et que vous souhaitez faire connaître à vos partenaires actuels et potentiels ? Quel niveau de description recherchez-vous concernant ces compétences ?
28) Vous paraît-il important de prévenir vos partenaires privilégiés de vos projets en cours ou à venir ? Si oui, comment le faites-vous ?
29) De manière générale, existe-t-il un service communication dans votre entreprise ? Si oui, est-il basé à Sophia ? La stratégie de communication de votre entreprise est-elle clairement établie ? Si oui, quels sont les médias de communication utilisés ?
30) Qu’évoque pour vous la notion de système KM ? Quelles seraient pour vous les fonctionnalités et l’intérêt d’une telle technologie ? et pour votre entreprise ? Qui serait susceptible, selon vous, de mettre à jour la base de votre entreprise ?



V. Les exceptions, les problèmes rencontrés, contre-exemples et attentes

31) Quels sont les problèmes les plus fréquents que vous avez rencontrés en matière d’établissement de partenariats ? Pouvez-vous nous fournir quelques exemples ? (contraintes juridiques telles que régie, contraintes économiques (obligations contractuelles, listes noires)
32) Les attentes
- De manière générale
Quels sont d’après vous les principaux bénéfices que vous obtiendrez en utilisant le service web KMP ?
Quels sont d’après vous les principaux risques liés à la mise en place de ce service web ? (mise à jour de la base, pertinence de l’information, diffusion des savoirs…)

- De manière plus précise
Quelles sont les fonctionnalités que vous aimeriez trouver dans le service web ?
Auriez-vous des suggestions / attentes à formuler vis-à-vis de ce service web ?
Ex : Souhaiteriez-vous la création de forum d’experts pour les compétences (organisationnelles, technologiques, relationnelles) que vous recherchez
Quels sont les modes d’interaction que vous souhaiteriez utiliser par l’intermédiaire du service web ? (Carte de communication, niveau d’accès, distinctions partenaires occasionnels / partenaires privilégiés…)


Annexe 1.3. : Questionnaire pour entretiens semi-directifs : les acteurs de la recherche publique
Grille d'Entretien scénarios d'usage
Scénario 3: partenariats recherche publique / recherche privée
Rappels sur l’objectif
Le projet KMP vise à créer un service web de compétences afin de faciliter les partenariats entre les entreprises de Telecom Valley, mais aussi entre les entreprises et les organismes de recherche publics.
Pour l’élaboration de ce site, une des étapes consiste à cartographier les compétences des entreprises de Telecom Valley (TV), c’est-à-dire à les formaliser et les intégrer dans une base de connaissances.
Afin de créer un outil qui correspond aux usages des membres de la TV (entreprises et organismes de recherche) il est nécessaire d'étudier au préalable les pratiques existantes.
Remarques préalables
Les rubriques I, II, III ont pour objectif de capturer de la connaissance en savoir-faire de partenariat de l’organisme. Il s’agit d'une description des pratiques actuelles et souhaitées de l'organisme de recherche en matière de partenariat.
Les rubriques IV et V et VI concernent plus spécifiquement l’utilisateur du service web. Il s’agit d'une description des informations que l'utilisateur recherche et fournit lorsque son organisme de recherche établit un partenariat mais aussi comment il échange des informations avec des collègues d’autres organismes de recherche de TV et de déterminer enfin l’utilité et les contraintes du service web à son niveau.
Date de l’entretien : ………………………………………….
Nom de l'organisme de recherche et du labo : …………………………………

Présentation de l’interviewé :
Nom de l’interlocuteur :
Ses fonctions exactes dans l’organisme :
Son ancienneté dans l’organisme, dans la fonction :
I. Les acteurs du scénario
I.1. l’acteur entreprise dans le contexte sophipolitain
Quelles sont vos fonctions exactes dans l’organisme ? Votre ancienneté ? Pouvez-vous nous décrire vos droits et devoirs pour ce rôle ? (éthique, contrôle, évaluation, incitation/ moyens matériels et immatériels, autonomie décisionnelle)
A quel type de laboratoire appartenez-vous (CNRS, UNSA, pas d’affiliation) ? Pouvez-vous spécifier les statuts des membres de votre équipe ? Quels sont les thèmes de recherche de votre organisme sur Sophia ? De votre équipe ? Ces thèmes ont-ils évolués sur les 5 dernières années) ? Quelle est la vocation de votre institution ? Dans le tissu sophipolitain (droit et devoirs associés) ?
Selon vous, qu’est-ce qui a motivé l’installation de votre organisme sur Sophia ?
Comment percevez-vous l’évolution des implantations de labo sur le site de Sophia ? Comment les expliquez-vous ? (Environnement, instituts de normalisation, proximité d’entreprises, autres…)
Votre organisme a-t-il des partenaires publics ou privés ? Se situent-ils en amont ou en aval de de votre activité ? Pouvez-vous les situer sur la chaîne de valeur (si entreprises) ? Pouvez vous en évaluez le nombre chaque année?
Possédez-vous une classification de vos partenaires ? Si oui, laquelle ?
Que vous apportent-ils ? (Compétences ou ressources recherchées, domaines d’activités concernés : conception, approvisionnement, fabrication, commercialisation…)
Quelles sont les modalités du ou des partenariats : (en référence aux différents modes de partenariat…)
Recherchez-vous de nouveaux partenaires ? Dans quels domaines ? Dans quels objectifs ? Quelles seraient les modalités de ces partenariats ?
Existe-t-il d’après vous des firmes ou des associations sur le site de Sophia qui jouent un rôle clé en matière de partenariat (stratégie partenariale prépondérante) ? Caractéristiques ? (capacité à renouveler leurs compétences, capacité à faire des accords de R&D, capacité à répondre à des projets européens…) Rôle au sein de la TV ?
Comment évaluez-vous le rôle de l’association Telecom Valley dans la mise en œuvre de partenariat ? (règles de bonne conduite ?)
Participez-vous à des associations ? si oui, jouent-elles un rôle dans le montage de partenariats.
Avez-vous personnellement des contacts avec des collègues dans le même domaine que le votre dans un autre organisme appartenant à la TV? Si oui sous quelle forme ? Avec des collègues appartenant à d'autres domaines que le vôtre dans d'autres organismes de TV? Si oui sous quelle forme ?
I. 2. Les services impliqués dans le montage de partenariats
Au sein de votre laboratoire et de votre organisme au sens large, existe-t-il un service et / ou des personnes spécifiquement dédié(s) à l’établissement de partenariats ?
D’autres services et / ou personnes sont-ils impliqués ?
I.3. l’utilisateur ou l’individu qui sera susceptible d’utiliser le service web des compétences.
Il s’agit d’identifier les individus qui seront les futurs utilisateurs du service web de compétences et à travers la spécification de leur rôle et des actions qu’ils mettent en œuvre, de comprendre ce qu’ils recherchent à travers l’utilisation de ce service.
Plus précisément une ou des personnes spécifiques interviennent-elles dans la mise en œuvre de partenariats ?
·ð statut :
·ð rôle :
De quelle manière ?
·ð les tâches :
·ð les actions mises en Suvre :
·ð les interactions internes/externes:
Est-ce que cette ou ces personnes peuvent être considérées comme futurs utilisateurs de l outil ? En voyez-vous d autres ?
II. Les ressources mobilisées
Il s’agit de faire un repérage des différentes ressources technologiques, organisationnelles liées à la mise en place d’un partenariat.
Quels supports NTIC utilisez-vous ?
(NTIC : Groupware, workflow, EDI, messagerie électronique type Internet, visio-conférences, Intranet avec des éléments référencés, listes de diffusion, newsletters, forum, chat, mail, ICQ…)
Vous utilisez ces technologies dans le but de :
obtenir plus d’informations de votre partenaire
assurer une meilleure coordination dans la division du travail
assurer une meilleure productivité entre les partenaires
assurer une meilleure circulation des informations du projet
mémoriser le travail collectif
autres ?
Avez-vous des restrictions ou facilités individuelles, de votre organisme ou de la communauté TV à l’usage des TIC ?
Quelles sont les difficultés que vous rencontrez lors de l’utilisation de ces supports ? (Problèmes de perte de confidentialité, répartition des tâches, confusion avec la hiérarchie, distribution anarchique des infos, inefficience…)
III. Les modalités de déroulement du scénario
Il s’agit d’une part de décrire le processus de montage de partenariat (know what), de comprendre de quelle manière (know how) et pourquoi il est mis en œuvre (know why).
Comment définiriez-vous dans l’idéal un partenariat ? un bon partenaire ? et votre laboratoire ? Qu’est ce qui selon vous garantit le succès d’un partenariat ? (Rôle du contexte, langage commun, proximités, effets d’apprentissage, capacité à anticiper la valeur créée…) ? Définir des grandes étapes clés. Quels sont les intérêts et enjeux des partenariats (pour vous, votre labo et votre organisme) ?
A quelle occasion ou à quel moment décidez-vous d’enclencher ce processus ? Qui contactez-vous ?
Pouvez-vous nous décrire globalement ou étape après étape dans votre pratique les différentes activités qui composent le processus de montage d’un partenariat ? Sont-elles séquentielles ?
Existe-t-il des points de contrôle ? Des documents internes qui formalisent le processus ?
Comment communiquez-vous avec le ou les partenaires ? Comment mettez-vous en œuvre la coordination et la coopération au cours du projet ? (contrat formel / relations informelles ; des règles de travail pour gérer les problèmes de confidentialité, répartir les tâches et échanger des informations)
Ces règles sont-elles :
issues de coopérations antérieures avec un ou plusieurs partenaires ;
issues de votre entreprise principalement ;
mises en place par votre donneur d’ordres ?
D’après vous, quelles sont les caractéristiques internes de votre laboratoire qui assurent une bonne appropriation de la valeur créée par le partenariat ? (base de connaissances cohérente, service R&D performant, processus de KM…)
Comment repérez-vous les compétences dans votre environnement?
Pensez-vous avoir une bonne connaissance des opportunités locales de partenariat ?
Quel est l’impact de ces opportunités sur le développement de nouveaux projets ?
Comment sélectionnez-vous le bon partenaire ? Comment évaluez-vous la motivation des ou du partenaire ?
Comment communiquez-vous avec le ou les partenaires ?

Les rubriques IV et V ont pour objectif de cibler les besoins propres des utilisateurs
I.V. Contenu des informations recherchées et fournies lors de la mise en œuvre d’un partenariat
Informations recherchées
Comment repérez-vous les compétences dans votre environnement ?
Pensez-vous avoir une bonne connaissance des opportunités locales de partenariat ? Quel est leur impact sur le développement de nouveaux projets ?
Comment sélectionnez-vous le bon partenaire ? Comment évaluez-vous la motivation du ou des partenaires ? Comment anticipez-vous et évaluez-vous la valeur créée par le partenariat ?
Pouvez-vous énumérer les informations génériques que vous souhaitez connaître de vos partenaires ? Quel est le degré de précision que vous souhaiteriez avoir en matière de description des produits ou services qu’un partenaire vous propose ?
Pouvez-vous définir les compétences maîtrisées par un partenaire potentiel que vous souhaiteriez connaître ? (Organisationnelles,  technologiques, R&D, relationnelles)
Quel niveau de description recherchez vous concernant ces compétences ?
Données et informations fournies
Quelles sont les données et informations que vous souhaiteriez communiquer à vos partenaires actuels et potentiels en matière de description des thématiques que votre laboratoire propose ?
Trouvez-vous que l’information contenue dans votre site web vous présente correctement ? Est-ce que votre site permet d’entrer directement en contact avec des personnes du laboratoire ? Si oui, lesquels ? Est-ce que cela vous paraît adapté ?
Pouvez-vous nous fournir un exemple de compétence que vous maîtrisez et que vous souhaitez faire connaître à vos partenaires actuels et potentiels ? Quel niveau de description recherchez-vous concernant ces compétences ?
Vous paraît-il important de prévenir vos partenaires privilégiés de vos projets en cours ou à venir ? Si oui, comment le faites-vous ?
De manière générale, existe-t-il un service communication dans votre laboratoire ? Si oui, est-il basé à Sophia ? La stratégie de communication de votre laboratoire est-elle clairement établie ? Si oui, quels sont les médias de communication utilisés ?
Qu’évoque pour vous la notion de système KM ? Quelles seraient pour vous les fonctionnalités et l’intérêt d’une telle technologie ? et pour votre entreprise ? Qui serait susceptible, selon vous, de mettre à jour la base de votre entreprise ?
Qui serait susceptible, selon vous, de mettre à jour la base de votre organisme ?
V. Les exceptions, les problèmes rencontrés et les contre-exemples
Quels sont les problèmes les plus fréquents que vous avez rencontrés en matière d’établissement de partenariats ? Pouvez-vous nous fournir quelques exemples ?
Avez-vous rencontré des contraintes juridiques lors de l’établissement de ces partenariats ? (régie…)
Quelles sont les contraintes économiques auxquelles vous avez eu à faire face ? (obligations contractuelles, cf Compaq)
VI. Les attentes
- De manière générale
Quels sont d’après vous les principaux bénéfices que vous obtiendrez en utilisant le service web KMP ?
Quels sont d’après vous les principaux risques liés à la mise en place de ce service web ? (mise à jour de la base, pertinence de l’information, diffusion des savoirs…)
- De manière plus précise
Quelles sont les fonctionnalités que vous aimeriez trouver dans le service web ?
Auriez-vous des suggestions / attentes à formuler vis-à-vis de ce service web ? Annexe 2 : Historique du projet
Annexe 2.1. : Année 2001-2002
Entretiens exploratoires
DATESOCIETEPERSONNE(S) RENCONTREE(S)Fonction14/11/2001AMADEUSFrançois GuichardSenior Manager18/11/2001ex-ARIANE IIPatrick Barrabe Commercial23/11/2001ARIANE IIPatrick Barrabe Commercial07/12/2001ARIANE II/AMADEUSNicolas Belanger  Consultant10/12/2001AMADEUSFM Levointurier-VajdaResp. Amadeus Lab20/12/2001ARIANE II/AMADEUSNicolas Belanger  Consultant08/01/2002PHILIPSB. Delépine Senior Manager / Président TV15/01/2002THALES-ISN. Roullet Manager22/01/2002AMADEUS LabsV. Marquion, FM Levointurier-VajdaResp. Amadeus Lab24/01/2002ARIANE IIS. Dubois RH31/01/2002ARIANE IIS. Dubois RH01/03/2002AMADEUSM. Mac LaughlanManager qualité20/03/2002COMPAQ/HPE. HaligonSenior Manager04/04/2002COMPAQ/HPG. Garcia Senior Manager28/05/2002CADT. Benmussa Directeur ressource01/07/2002ATOS ORIGINP. Perez Consultant04/07/2002CADS. LorenziChargé de mission10/07/2002ATOS ORIGINT. Charlier Manager qualité10/07/2002ATOS ORIGINJ. Cinquin Commercial10/07/2002ATOS ORIGINH. Karp Consultant11/07/2002CADJ.F. ChapperonChargé de mission24/07/2002PHILIPSR. LauretManager qualité24/07/2002PHILIPSN. CottatManager qualité31/10/2002ATOS ORIGIND. GiboulotConsultantAuprès d’associations20/11/2002FSA et le Club start-upA. Ovigny24/10/2002Telecom ValleyJ.-L. FaraillResponsable Commission DéveloppementComités ad hoc
Le cheminement de l’idée20/12/2000Réunion commission développement : idée de cartographie des compétences de TV09/02/2001Présentation de l’idée à J. Gros, président de TV (propose le nom de KMP)10/04/20011ère réunion avec la Commission développement de TV : identification des objectifs et des aspects techniques du projet, implication du MBDS03/05/2001Réunions Bidault (Theseus) et Guichard (Amadeus)22/05/2001Présentation de l'avancement de l'idée aux Commissions de TV26/06/2001Présentation du projet aux autres Commissions de TV, identification des premières entreprises pilotes10/07/2001Réunion avec l’ensemble des commissions de TV23/08/2001Mise en place du projet, rencontre avec le MBDS et premiers contacts avec l'INRIA18/09/2001Rencontre avec l’équipe Acacia de l’INRIA, présentation du projet et d’une éventuelle participation de l’INRIA17/10/2001Organisation du projet et identification des membres16/11/2001Réunion de perfectionnement du questionnaire pour les entretiens exploratoires27/11/2001ouverture du projet au niveau du cluster Telecom et présentation à la CCI et CAD20/12/2001Point sur les acteurs et l'organisation du projet, la répartition des rôlesMontage du dossier RNRT08/01/2002Réunion élaboration du projet RNRT : précision des tâches et objectifs15/01/2002Présentation des travaux de l’INRIA en matière d’ontologie par F. Gandon,22/01/2002Réunion élaboration du projet RNRT : précision des tâches et objectifs20/02/2002Réunion élaboration du projet RNRT : préparation de réponse à l’appel à projets du RNRT05/03/2002Réunion élaboration du projet RNRT : préparation de réponse à l’appel à projets du RNRT07/05/2002Précision des tâches et objectifs du Projet16/05/2002Précision des tâches et objectifs du Projet22/05/2002Réunion méthodologie : réflexion sur la méthodologie de cartographie des compétences25/06/2002Réunion méthodologie : réflexion sur la méthodologie de cartographie des compétencesPrésentations diverses
24/05/2002« Intelligence Economique et Management des Ressources Humaines » Deuxièmes Rencontres Régionales CERAM/IHESIC. Thomas27/09/2002Journée des Clubs de Sophia Antipolis B. Delépine, A. Giboin, J.L. Faraill, C. Thomas18/10/2002Colloque «Knowledge Management et Création de Valeur » organisé par le Knowledge Management Institute de Sophia Antipolis C. Thomas
Annexe 2.2. : Année 2003
Entretiens semi-directifs
Entretiens cartographie des entreprisesDATESOCIETEPERSONNE(S) RENCONTREE(S)OBJETEntretiens cartographie des organismes de recherche26/02/2003ATOS ORIGINP. PerezPrototype 0 : Saisie des fiches de compétences19/03/2003FT R&DT. Nagellen Prototype 0 : Saisie des fiches de compétences26/03/2003FT R&DT. NagellenPrototype 0 : Saisie des fiches de compétences 03/04/2003PHILIPSR. LauretPrototype 0 : Saisie des fiches de compétences08/04/2003ATOS ORIGINJ. CinquinPrototype 0 : Saisie des fiches de compétences08/04/2003ATOS ORIGINT. CharlierPrototype 0 : Saisie des fiches de compétences15/04/2003ATOS ORIGINT. CharlierPrototype 0 : Saisie des fiches de compétences15/04/2003ATOS ORIGINJ. CinquinPrototype 0 : Saisie des fiches de compétences15/04/2003HPP. BascunanaPrototype 0 : Saisie des fiches de compétences13/05/2003PHILIPSO. Dussarrat et B. PradarelliPrototype 0 : Saisie des fiches de compétences13/05/2003ATOS ORIGINM. KarpPrototype 0 : Saisie des fiches de compétences15/05/2003ELAN ITF. LochetPrototype 0 : Saisie des fiches de compétences21/05/2003QWAM SYSTEMD. GrouèsPrototype 0 : Saisie des fiches de compétences28/05/2003ATOS ORIGINM. MeynardPrototype 0 : Saisie des fiches de compétences17/06/2003TRANSICIELC. DelsauxPrototype 0 : Saisie des fiches de compétences20/06/2003PHILIPSM. De baecker, H. BovetPrototype 0 : Saisie des fiches de compétences24/06/2003PHILIPSA. KuntzPrototype 0 : Saisie des fiches de compétences25/06/2003PHILIPSP. BertinPrototype 0 : Saisie des fiches de compétences30/06/2003PHILIPSY. NoguesPrototype 0 : Saisie des fiches de compétences02/07/2003PHILIPSM. TudosePrototype 0 : Saisie des fiches de compétences02/07/2003ELAN ITF. LochetPrototype 0 : Saisie des fiches de compétences03/07/2003PHILIPSM. GiaumePrototype 0 : Saisie des fiches de compétences03/07/2003PHILIPSL. BoustPrototype 0 : Saisie des fiches de compétences10/07/2003TRANSICIELJ.C. Olivain, R. DraghettiPrototype 0 : Saisie des fiches de compétences11/07/2003INRIAW. DabbousSaisie exploratoire des fiches de compétences29/07/2003CROSS SYSTEMA. LambertPrototype 0 : Saisie des fiches de compétences14/10/2003IBMP. SecondoPrototype 0 : Saisie des fiches de compétences03/11/2003IBMP. SecondoPrototype 0 : Saisie des fiches de compétences04/11/2003COFRAMIN. IcardoPrototype 0 : Saisie des fiches de compétences27/11/2003TRANSICIELM. DelsauxPrototype 0 : Saisie des fiches de compétences16/12/2003AMADEUSF. GuichardPrototype 0 : Saisie des fiches de compétencesEntretiens scénarios d’usage 121/01/2003CADC. Perez21/01/2003CADM. Denis21/01/2003CADT. Benmussa31/01/2003CADT. Benmussa31/01/2003CADG. Peinado, P. Moretto31/01/2003CADG. Vincent03/03/2003CADM. DenisEntretiens scénarios d’usage 226/02/2003ATOS ORIGINP. Perez19/03/2003FT R&DT. Nagellen 15/04/2003HPP. Bascunana15/05/2003ELAN ITF. Lochet15/05/2003ELAN ITF. Lochet17/06/2003TRANSICIELC. Delsaux24/06/2003PHILIPSA. Kuntz30/06/2003PHILIPSY. Nogues10/07/2003TRANSICIELJ.C. Olivain, R. Draghetti29/07/2003CROSS SYSTEMA. Lambert03/11/2003IBMP. Secondo04/11/2003COFRAMIN. Icardo27/11/2003TRANSICIELM. Delsaux16/12/2003AMADEUSF. GuichardEntretiens scénarios d’usage 307/02/2003INRIAC. Serrano21/03/2003INRIAS. Dalmas01/04/2003UNSAN. MarchandéComités ad hoc
Réunions scénario 102/04/2003Club Start upL. Bazet22/04/2003JCEMme Vareille29/04/2003MBDSS. Miranda12/06/2003Club Hi TechP. Bardey03/07/2003Sophia ForumM. De Raco, M. Martin11/07/2003Sophia ForumDe Raco13/08/2003PMI SudJ.C. DravetGroupe de réflexion sur la chaîne de valeur10/03/2003B. Delepine (Philips Semiconductors), J.-L. Faraill (France Télécom), P. Perez (Atos Origin), N. Belanger (Amadeus), G. Garcia (Compaq-HP)05/06/200324/09/2003Réunions Ontologies23/01/2003Réunion technique : Présentation des concepts d'ontologies et Corese, INRIA et RODIGE31/03/2003Réunion ontologies09/04/2003Réunion de coordination et ontologies15/07/2003Réunion ontologies22/07/2003Réunion ontologies n°1 : ontologie informatique avec les SSII02/09/2003Réunion ontologies n°2 : ontologie informatique avec les SSII08/09/2003Réunion ontologies : ontologie des compétences17/09/2003Réunion ontologies : peuplement des ontologies et ontologie microélectronique avec B. Delépine07/10/2003Réunion ontologies n°3 : ontologie informatique avec les SSII16/10/2003Réunion ontologies : ontologie Telecom avec JL Faraill23/10/2003Réunion ontologies : ontologie Telecom avec JL Faraill06/11/2003Réunion ontologies : ontologie Telecom avec JL Faraill et L. Ottavj (UDCAST)26/11/2003Réunion ontologies : ontologie Telecom avec JL Faraill05/12/2003Réunion ontologies : ontologie microélectronique avec B. Delépine et H. Bovet19/12/2003Réunion ontologies et prototypesRéunions scénarios 307/02/2003INRIAC. SerranoElaboration des fiches de description + sc d’usages21/03/2003INRIAS. DalmasElaboration des fiches de description + sc d’usages03/04/2003UNSAN. Marchandé et I. GazanioElaboration des fiches de description 14/04/2003UNSAN. MarchandéPréparation des fiches de renseignement et de compétences28/05/2003ValroseN. MarchandéRéunion pour cartographie CAD des OR + fiches descriptivesComités de Pilotage
12/02/2003COMITE DE PILOTAGE "UTILISATEURS" N°0SP0, SP1, SP2, SP3, SP4, SP503/04/2003COMITE DE PILOTAGE "UTILISATEURS" N°1SP0, SP1, SP2, SP3, SP526/06/2003COMITE DE PILOTAGE "UTILISATEURS" N°2SP0, SP1, SP2, SP3, SP525/09/2003COMITE DE PILOTAGE "UTILISATEURS" N°3SP0, SP1, SP2, SP3, SP518/12/2003COMITE DE PILOTAGE "UTILISATEURS" N°4SP0, SP1, SP2, SP3, SP5Présentations diverses
10/03/2003PHILIPSB. DelepinePrésentation du Projet à la BL 3GSM28/05/2003CNRTJ. Agguire (CNRT)Présentation du projet KMP (Scénario d’usage 3)05/06/2003TRANSICIELR. Draghetti, N. BélangerPrésentation du projet 08/07/2003I3SM. BernhardPrésentation du projet KMP (Scénario d’usage 3)23/09/2003AMADEUSF. Guichard, V. Marquion, F.M. Levointurier-VajdaPrésentation du prototype 0 et état d'avancement24/09/2003IBMJ. Gros, P. SecondoPrésentation du projet KMP et état d'avancement18/11/2003CNRTF. Lion CerfPrésentationCompréhension de l’environnement
26/06/2003ESSIColloque Jean Morgenstern : obj : rencontrer les chercheurs du public30/09/2003CUMSéminaire marketing territorial01/10/2003RODIGEPrésentation de KMP au laboratoire des usages08/10/2003CICASAME09/10/2003CICASAME13/10/2003INRIARéunion : les starts-up issues de l'INRIA12/11/2003Labo des usagesObjet : création d’un laboratoire des usages24/11/2003Labo des usagesCréation d’un laboratoire26/11/2003Labo des usagesF. Cara09/12/2003Labo des usagesPrésentation du projet Alcatel Space
Annexe 2.3. : Année 2004
Entretiens semi-directifs
Entretiens cartographie des entreprisesDATESOCIETEPERSONNE(S) RENCONTREE(S)OBJET15/01/2004HPG. GarciaPrototype 0 : Saisie des fiches de compétences20/01/2004FT R&DT. NagellenPrototype 0 : Saisie des fiches de compétences10/03/2004ELAN ITF. Lochet, D. OstanPrototype 0 : Saisie des fiches de compétences22/03/2004ELAN ITD. OstanPrototype 0 : Saisie des fiches de compétences13/04/2004FT R&DT. NagellenPrototype 0 : Saisie des fiches de compétences13/04/2004COFRAMIN. IcardoPrototype 0 : Saisie des fiches de compétences14/04/2004QWAMD. PeyrotPrototype 0 : Saisie des fiches de compétences27/04/2004IBMP. SecondoPrototype 0 : Saisie des fiches de compétences06/05/2004PHILIPSM. MotshagenPrototype 0 : Saisie des fiches de compétences12/05/2004AMADEUSW. Rubeinstein (Fare Quote)Prototype 0 : Saisie des fiches de compétences25/05/2004HPP. BascunanaPrototype 0 : Saisie des fiches de compétences03/06/2004PHILIPSL. Noël Prototype 0 : Saisie des fiches de compétences08/06/2004AMADEUSFM. Levointurier Vajda (TOP’s)Prototype 0 : Saisie des fiches de compétences25/06/2004IBMP. SecondoPrototype 0 : Saisie des fiches de compétences13/08/2004HPG. GarciaPrototype 0 : Saisie des fiches de compétences21/09/2004TRANSICIELR. DraghettiPrototype 0 : Saisie des fiches de compétences16/03/2005FT R&DF. DelonPrototype 0 : Saisie des fiches de compétencesEntretiens cartographie des organismes de recherche12/05/2004INRIAW. Dabbous, équipe PlanètePrototype 0 : Saisie des fiches de compétences18/05/2004UNSAC. ThomasPrototype 0 : Saisie des fiches de compétences19/05/2004INRIAS. Piperno, équipe CAÏMANPrototype 0 : Saisie des fiches de compétences24/05/2004INRIAG. Boudol, équipe MIMOSAPrototype 0 : Saisie des fiches de compétences08/06/2004INRIAB. Trousse, équipe AXISPrototype 0 : Saisie des fiches de compétences18/06/2004INRIAB. Trousse, équipe AXIS
I. Attali, équipe OASISPrototype 0 : Saisie des fiches de compétences21/06/2004I3SP. Comon, équipe AstrePrototype 0 : Saisie des fiches de compétences25/06/2004INRIAR. Dieng, équipe ACACIAPrototype 0 : Saisie des fiches de compétences07/07/2004I3SC. André, équipe SPORTSPrototype 0 : Saisie des fiches de compétences16/07/2004I3SM. Auguin, équipe MOZARTPrototype 0 : Saisie des fiches de compétences20/07/2004INRIAM. Boudol, équipe MIMOSAPrototype 0 : Saisie des fiches de compétences19/08/2004INRIAM. Bermond, équipe MASCOTTEPrototype 0 : Saisie des fiches de compétences29/08/2004UNSA-LEATM. PichotPrototype 0 : Saisie des fiches de compétences08/10/2004UNSA-LEATM. PichotPrototype 0 : Saisie des fiches de compétences15/10/2004UNSA-LEATM. PichotPrototype 0 : Saisie des fiches de compétences18/10/2004EURECOMM. BonnetPrototype 0 : Saisie des fiches de compétencesEntretiens scénarios d’usage 215/01/2004HPG. Garcia20/01/2004FT R&DT. Nagellen13/04/2004FT R&DT. Nagellen13/04/2004COFRAMIN. Icardo14/04/2004QWAMD. Peyrot27/04/2004IBMP. Secondo06/05/2004PHILIPSM. Motshagen12/05/2004AMADEUSW. Rubeinstein (Fare Quote)25/05/2004HPP. Bascunana03/06/2004PHILIPSL. Noël 08/06/2004AMADEUSFM. Levointurier Vajda (TOP’s)25/06/2004IBMP. Secondo13/08/2004HPG. Garcia21/09/2004TRANSICIELR. Draghetti16/03/2005FT R&DF. DelonEntretiens scénarios d’usage 323/01/2004AMADEUSH. Kuebler, FM Levointurier Vajda04/05/2004INRIAC. Serrano11/05/2004I3SM. Fedou12/05/2004INRIADabbous, Planète14/05/2004EURECOML. Grammare19/05/2004INRIAS. Piperno, équipe CAÏMAN11/06/2004CNRTF. Lion Cerf18/06/2004INRIAB. Trousse, équipe AXIS18/06/2004INRIAI. Attali, équipe OASIS26/06/2004INRIAR. Dieng, Acaccia16/07/2004UNSA, I3SM. Auguin, Mosarts18/07/2004UNSA, I3SC. André, Sports20/07/2004INRIAG. Boudol, MimosaComités ad hoc
Réunions scénario 117/02/2004CAD, IRT (T. Benmussa, E. Millet)Description des facilitateurs04/03/2004ETSI (L. Rosu Lunguran)Description des Instituts de Normalisation10/03/2004CNRT Télius (F. Lion Cerf)Fiches facilitateurs, SP4-SP511/06/2004CNRT Télius (F. Lion Cerf)Fiche facilitateurs, SP4-SP5Groupe de réflexion sur la chaîne de valeur12/02/2004B. Delepine (Philips Semiconductors), J.-L. Faraill (France Télécom), P. Perez (Atos Origin), N. Belanger (Amadeus), G. Garcia (Compaq-HP)23/03/200422/06/2004Réunions Ontologies14/01/2004Ontologie des Télécommunications : T. Nagellen28/01/2004Choix d’un Forum pour l’implémentation des ontologies19/02/2004Mise au point sur le contenu et la structure du Forum sur les ontologies17/03/2004Mise en place du Forum sur les ontologies et intégration des ontologies dans le prototype 120/04/2004Etude sur les technologies clefs de CAD : T. Benmussa22/07/2004Point sur l’implémentation des ontologies05/08/2004Construction de l’ontologie des modèles et théoriesRéunions scénario 212/02/2004Commission Partenariats – Telecom Valley (Représentants de SSII, AMADEUS, UNSA)Cellule Partenariats entre SSII petites et grandes12/02/2004Commission Partenariats – Telecom Valley T. Chrystol (OVERLOG)Cellule Partenariats entre SSII petites et grandes : Présentation de KMP08/04/2004Commission Partenariats – Telecom Valley (Représentants de SSII, AMADEUS)Cellule Partenariats entre SSII petites et grandes21/09/2004Commission Partenariats – Telecom Valley (Représentants de SSII, AMADEUS, UNSA)Cellule Partenariats entre SSII petites et grandesRéunions pour la construction du prototype 106/02/2004UNSAN. MarchandéDéveloppement de KMP17/03/2004I3S, UNSA, CNRTJL. Fedou, F. Lion CerfPrésentation et projet de développement17/03/2004CNRTLion CerfPréparation de la réunion avec I3S12/05/2004I3SJM. Fedou, C. JulienDéveloppement de KMP10/08/2004INRIAF. GandonOntologie 24/09/2004I3SJM. FedouDéveloppement de KMP12/10/2004CNRT F. Lion Cerf, B. LeturqArgumentaire DRIRE + I3SComités de Pilotage
25/03/2004COMITE DE PILOTAGE "UTILISATEURS" N°5SP0, SP1, SP2, SP3, SP4, SP529/06/2004COMITE DE PILOTAGE "UTILISATEURS" N°6SP0, SP1, SP2, SP3, SP5, SP508/11/2004COMITE DE PILOTAGE "UTILISATEURS" N°7SP0, SP1, SP2, SP3, SP5, SP5Evaluations
06/05/2004Projet GALILEOFSAAnalyse Dynamique communautaire10/05/2004AVARAP 06G. ClémentSP4-SP5Président11/05/2004Club des dirigeantsJ. LignièresSP4-SP5Président25/05/2004Incubateur PACA EstG. QuetinSP4-SP5Directeur25/06/2004IBMP. SecondoEvaluations du dispositif KMP et des fonctionnalités du scénario 1Senior manager01/07/2004ELAN ITF. LochetEvaluations du dispositif KMP et des fonctionnalités du scénario 1Senior sales Consultant07/07/2004AMADEUSH. Kuebler, F.M. Levointurier-VajdaEvaluations du dispositif KMP et des fonctionnalités du scénario 1Responsables Amadeus Labs12/07/2004CADT. Benmussa, Peinado, MorettiEvaluations du dispositif KMP et des fonctionnalités du scénario 1Senior managers30/11/2004UNSAE. RoubyEvaluation ergonomique du prototype KMP-CoreseMaître de Conférences08/12/2004CADT.Benmussa, G. PeinadoEvaluations du prototype KMP-Corese (Scénarios 1 et 2)Senior managers13/12/2004UNSAP.J. BarlatierEvaluation ergonomique du prototype KMP-CoreseDoctorant17/12/2005CNRT TéliusF. Lion CerfEvaluations du prototype KMP-Corese (Scénario 3)DirecteurPrésentations diverses
05/01/2004Présentation de la Chaîne de Valeur à l’Assemblée Générale de Telecom valley15/01/2004Réunion Pôle Microélectronique pour la création du club SAME27/01/2004Présentation sur les clusters aux membres de Telecom Valley20/02/2004AMADEUSF. Guichard, M. Limousin, A. Duong, M. GuastalaPrésentation du projet KMP10/03/2004SAEM : Présentation des concepts de KMP (clusters/pôles) pour les institutionnels locaux10/06/2004Réunion Visibilité de Sophia Antipolis avec les responsables de clubs02/07/2004Réunion de préparation de la Journée des clubs de Sophia : Atelier « lisibilité de Sophia Antipolis » avec les responsables de clubs28/07/2004Réunion de préparation de la Journée des clubs de Sophia : Atelier « lisibilité de Sophia Antipolis » avec les responsables de clubs06/08/2004Réunion pour la représentation graphique des clubs pour la Journée des clubs de Sophia24/08/2004Réunion de préparation de la Journée des clubs de Sophia : Atelier « lisibilité de Sophia Antipolis » avec les responsables de clubs10/09/2004Réunion de préparation de la Journée des clubs de Sophia : Atelier « lisibilité de Sophia Antipolis » avec les responsables de clubs23/09/2004Présentation de l’Atelier « lisibilité de Sophia Antipolis » à la Journée des clubs de Sophia07/10/2004I3SM. Fedou22/11/2004Présentation des concepts de KMP à la soirée Telecom Valley et Trophées Clipsat30/11/2004Réunion « Pôles de compétitivité » entre Telecom Valley, le CNRT Télius et Méditerranée Technologies17/12/2004Réunion Pôle de compétitivité Solutions Communicantes SécuriséesCompréhension de l’environnement
23/01/2004AMADEUS H. Kuebler, FM Levointurier VajdaScénarios d'usage et validation des fiches des organismes de recherche03/02/2004UNSA N. MarchandéJournée Valorisation Recherche Publique06/02/2004UNSA N. MarchandéCoopération recherche publique – recherche privée10/02/2004UNSA, CAD, Ernst & YoungRésultats de l’Etude de Technologies clés pour la recherche publique11/03/2004UNSAJournée Valorisation17/03/2004I3S, UNSA, CNRT JL. Fédou, N. Marchandé, F. Lion CerfPrésentation de KMP24/03/2004UNSA N. MarchandéDéjeuner Valorisation10/05/2004CNRT F. Lion CerfAssemblée Générale14/05/2004EURECOM L. GrammarePrésentation projet KMP et fiches des OR24/09/2004I3S M. FédouPrésentation KMP29/09/2004IBMConférence partenariats public-privé27/10/2004BIOMED (Marseille)Conférence partenariats public-privé
Annexe 2.4. : Année 2005-2006
Comités ad hoc
Réunions diverses : représentation du pôle, forum, poursuite de KMP22/08/2005F. LioncerfEntretien prototype P321/11/2005J.M. FédouE Entretien prototype P306/01/2006Réunion équipe opérationnelle Spécifications fonctionnelles P311/01/2006B. DelépineEvolution représentation espace commun13/01/2006Réunion INRIASpécifications fonctionnelles P324/01/2006A. ChiavelliValidation nouvelle fiche27/01/2006Réunion INRIASpécifications fonctionnelles P321/03/2006KMP : outil d’animation du pôleRéunion KMP + TV27/03/2006Réunion SCS forum28/03/2006J.Y. TigliEvolution représentation espace commun14/04/2006Réunion SCS forum24/04/2006B. DelépineDynamique Part. Rech. Pub./ Rech.Privée09/05/2006Workshop Carry le RouetCluster et pôle de Compétitivité : le cas de Sophia12/05/2006U. FingerDynamique Part. Rech. Pub./ Rech.Privée29/05/2006Forum Academic ResearchPôle SCS02/06/2006Valorisation INRIADémonstration KMPComité de Pilotage
25/01/2005COMITE DE PILOTAGE "UTILISATEURS" N°8 et DEMONSTRATION DU PROTOTYPE KMP-CORESE A L’ENSEMBLE DES MEMBRES DE TELECOM VALLEYSP0, SP1, SP2, SP3, SP5, SP5Présentations diverses
07/01/2005Présentation du projet KMP dans le cadre du petit déjeuner EUREKA réalisé par la Fondation Sophia (Sénateur Laffitte)18/01/2005Réunion Pôle de compétitivité Solutions Communicantes Sécurisées25/02/2005Présentation du projet KMP dans le cadre de l’Innovation Champions Network de la Fondation Sophia (Sénateur Laffitte)10/03/2005Participation à la mise en place d’un réseau de veille et d’intelligence économique au niveau de la Région PACA (M. Baduel, STIC) : KMP, une solution support15/03/2005Présentation du Projet KMP et démonstration du prototype KMP-Corese à SAP21/03/2005Présentation des résultats du Projet KMP et des perspectives pour 2005/2006 à l’Assemblée Générale de Telecom ValleyEvaluations
23/02/2005UNSAN. MarchandéEvaluations du prototype KMP-Corese (Scénario 3)Responsable de la valorisation12/01/2005FT R & DL. LondeixEvaluations du prototype KMP-Corese (Scénarios 1 et 2)Directeur agence12/01/2005HPG. GarciaEvaluations du prototype KMP-Corese (Scénarios 1 et 2)Senior manager13/01/2005Qwam SystemD. PeyrotEvaluations du prototype KMP-Corese (Scénarios 1 et 2)Directeur agence20/01/2005AmadeusF. GuichardEvaluations du prototype KMP-Corese (Scénarios 1 et 2)Senior manager16/02/2005I3SJ.M. FédouEvaluations du prototype KMP-Corese (Scénario 3)Directeur17/12/2005CNRT TéliusF. Lion CerfEvaluations du prototype KMP-Corese (Scénario 3)Directeur12/05/2006EurecomU. FingerAnalyse Représentation de l’espace communDirecteur26/05/2006Texas InstrumentsC. TordoAnalyse Cohérence des bases de connaissancesDirecteur GénéralCompréhension de l’environnement
15/06/2005F. LioncerfSymposium CNRT20/01/2006SchneiderValorisation démarche de co-conception

Annexe 3 : Exemple de scénario d’usage
I. Type d’activité : Stratégie de Développement Individuel
II. LES ACTEURS CLES:
2.1. Les acteurs organisationnels pilotes (Identification et positionnement sur la carte du cluster sophipolitain) :
UNSA (organismes de recherche) et plus particulièrement deux laboratoires: I3S et LEAT
INRIA (organismes de recherche) et plus particulièrement 10 équipes
Amadeus (8 a)
FT R&D (5 b)
Service Valorisation INRIA, UNSA: Facilitateurs
2.2. Les utilisateurs pilotes (identification, statut et rôle au sein de l’organisation):
Services valorisation INRIA et UNSA
Chargée de la communication I3S
Chefs d'équipes de l'UNSA et l'INRIA et directeurs de laboratoires (I3S et LEAT)
Senior Manager Technology (Amadeus)
NB : Les industriels sont peu présents dans ce scénario car les analyses les concernant ont été effectuées dans le scénario 2.
III. LE PROCESSUS
SOUS –ACTIVITE : 4.1 : Rechercher un Partenaire

Entrées
(Qui)Tâches à réaliser
(Quoi)
Ressources mobilisées
(Avec quoi)
Modalités (Comment)Flux d’informations
èð info recherchées
èð info fourniesProblèmes rencontrésSortiesLes chefs d'équipe des organismes de recherche- Pouvoir localiser les industriels pour monter des partenariats
Planète, Dabbous- Trouver des partenaires en interne via KMP (Oasis, Attali; Fédou, I3S)- Obtenir une liste des offres de stages émanant des entreprises (Fédou, I3S)IV. LE PROCESSUS DANS L’ENVIRONNEMENT (Eléments de contexte):
A. Etendue du scénario
a) Différents départements concernés
Toutes les équipes de recherche
b) Interactions interne/externe
Interactions entre les chefs d'équipe et membres des équipes avec des pairs lors de colloque par exemple
Les associations lorsque les chefs d'équipe y participent
Interactions avec des industriels quand des projets ont déjà été montés
c) Contraintes légales
Au niveau du CNRS, problèmes de droit de propriété intellectuelle: des contrats sont parfois abandonnés car les parties n'arrivent pas à s'entendre sur le partage des résultats.
B. Eléments contextuels du scénario
a) Signification :
Intra-organisation
Les chercheurs de l'INRIA ont plus conscience de l'importance de monter des partenariats avec des industriels pour d'une part obtenir des financements mais également parce qu'ils attachent beaucoup d'importance aux applications possibles de leur recherche. La recherche de partenaire se fait toujours de façon très informelle, quelque soit l'organisme de recherche concerné. Tandis que pour l'INRIA l'enjeu est bien souvent d'obtenir des contrats avec financements pour leurs équipes, pour I3S, il s'agit la plupart du temps de placer des stagiaires et des thésards, ce qui est en partie dû à leur statut d'enseignant-chercheur.
Inter-organisation
Pour la majorité des industriels, le majeur problème concernant les partenariats avec des OR est celui du temps c'est-à-dire que les industriels travaillent sur des espaces temps beaucoup restreint que les académiques. Bien souvent, entreprises et organismes de recherche n'ont pas la même notion du temps ce qui pose assez souvent des problèmes de coordination. Les industriels reprochent aussi beaucoup aux chercheurs de vivre dans une bulle, de ne pas suffisamment prêter attention à toutes les sources de financement qui leur sont offertes.
Du côté des chercheurs, dans la majorité des cas, ils se contentent d'un minimum de contrat qui leur permet d'assurer la pérennité de leur équipe et leur indépendance financière et en termes de temps libre. Il ne faut tout de même pas oublier que les chercheurs n'ont aucune incitation financière supplémentaire à nouer des partenariats.
Il est donc important de voir ici que ces deux communautés ont des visions très différentes d'une seule et même pratique (le partenariat).
Au niveau du cluster, il est cependant largement entendu que faire des partenariats entre recherche publique et recherche privée est essentiel, ce du point de vue des industriels (créativité mais aussi dynamisme qui permet de sauver des délocalisations) et du point de vue des chercheurs (placer des doctorants, être à l'écoute des applications possibles … CIM PACA, campus STIC envisageable qu'en cas de collaboration).
b) Légitimité
Intra-organisation
L'outil est perçu par les OR comme le nième outil de cartographie. Par contre, il est largement soutenu par les différents services de valorisation puisqu'il leur permet d'avoir un descriptif des différentes compétences de leurs équipes. Le directeur d'I3S est également très intéressé par la possibilité de montrer les pôles qui se dégagent, les complémentarités entre les équipes afin de vendre des compétences collectives à la région et en particulier au CNRS. Pour les organismes de recherche, cet outil est un véritable outil de veille, chose non avouée parles industriels.
Inter-organisation
Evolution du contexte: baisse significative des financements aux organismes de recherche (notamment au niveau du CNRS) : volonté de montrer des pôles de compétitivité. L'outil apparaît comme l'outil de liaison des pôles, de valorisation.
c) Domination
Intra-organisation
Dans les OR, les individus sont assez libres. Pas de hiérarchie (différence par rapport aux entreprises), à l'exception de l'INRIA où il y a obligation vis-à-vis de l'instance supérieur (rendre des résultats tous les 4 ans, faire évoluer les thèmes de recherche) mais ceci dans une certaine autonomie tout de même.
Inter-organisation
V. Conséquences sur les fonctionnalités de L’OUTIL KMP
Types de requêtes et réponses : Prototype d’édition des compétences
- Mêmes requêtes concernant les compétences des entreprises
- Intégrer des stagiaires dans KMP: ceci peut par exemple prendre la forme de fiche projet stage (voir ce que font I3S et ESSI là-dessus) en push de la part des entreprises ou par équipe avec les disponibilités selon un thème
- Suivre les liens entre OR et entreprises, par les contrats de recherche, thèses ou stagiaires
- Définir les clubs et associations sur Sophia avec descriptif de ceux-ci
- Ajouter des mots clés dans les descriptifs des entreprises
Annexe 4 : L’ontologie des télécommunications
Ontologie des Telecommunications
Modele OSI
Couche application (7.)
Messagerie
 Simple Mail Transfer Protocol (SMTP)  POP3  IMAP4  Webmail
Technologie logicielle pour la securite des reseaux
 VPN
 Routage semantique (xml-routing)  Voix sur IP
 Couche presentation (6.) Couche session (5.)
 WAP  Real Time Protocol (RTP)  RTCP  HTTP  HTTPS  FTP
Couche transport (4.)
 TCP  UDP  BGP  MULTICASTING
Couche Liaison (2.)
Protocoles
 FTS  FDDI PPP
 PPPoE  PPPoA
 TokenRing  TokenBus Ethernet
 10/100 Base T  10/100 Base TX  Gigabit ethernet
Wifi
 CAPWAP (Control And Providing of Wireless Access Point)
xDSL
 VDSL  HDSL  ADSL  SDSL
 BlueTooth Protocoles «Mobile»
 GSM  GPRS  EDGE  UMTS
Couche reseaux (3.)
Protocoles
 IPV6 IP
 IPFIX (IP Flow InformatIon Export)  PSAMP (Packet SAMPling)  IP over DVB (Digital Video Broadcast)
 ARP  RARP  ICMP  IGMP  RIP  OSPF  MobileIP  X25  SNMP
Routage
 DNS  DHCP  WINS  NIS  RIP
 LAN  WAN
Couche Physique (1.)
Support de transmission
Liaison filaire
 Fibre optique  Guide d onde  Cuivre  Coaxial
Liaision non-filaire
 Liaison de proximitte ou courte distance (RF / Infrarouge)  Liaison moyenne distance (RF / Laser)  Liaison longue distance (RF/Laser)  Radars a base d ondes FM continues
Liaison satellite
 GPS  GPS assiste
Couche modelisation
 HP - ADS SPW
 MatLab
Administration Reseau
 Gestion de la configuration  QoS applicative  Auto-configuration  Tele-administration
Ingenierie Reseau
 Autonomic Networking
Architecture et dimensionnement
Architecture reseaux
 Virtual Network Operator (VNO)
Materiel de telecommunications
Materiel (couche reseaux)
 Routeur  Routeurs avec services integres  Trafic shaper
Materiel (couche liaison)
 Brasseur  Pont  Commutateur / Switch  DSLAM
Materiel (couche physique)
 Telephone IP  HUB
Materiel (couche transport)
PBX
 PABX  IPBX
 Backbone
 Carte vocale Sonde de capture de trafic
 Ethereal  tcpdump
Plate-formes de centres de contact
 Cosmocom  Netcentrex  Genesys
 Dimensionnement
Annexe 5 : Exemples d’interfaces du prototype KMP

Page d’accueil du site KMP


Fiche descriptive entreprise

Fiche descriptive laboratoire de recherche







Représentation du cluster télécoms à partir du prototype KMP







Exemple d’une requête sur une compétence : concevoir / Antenne / offre mobile



Réponses apportées par la solution KMP
Dans ce cas, il n’y a pas de réponse exacte à la requête, l’outil propose donc des compétences qui se rapprochent de celle demandée.


Description de la compétence
En cliquant sur la compétence, nous obtenons une fiche descriptive synthétique de la compétence telle que décrite par l’entreprise.


Liste des figures  TOC \t "Figure;1" \hFigure 1 : Le réseau Science Technique Marché [Callon et al., 1995] 32
Figure 2 : Le modèle de stratification de l’action de Giddens [Autissier, 2001] 69
Figure 3 : Les dimensions de la dualité du structurel [Giddens, 1987] 71
Figure 4 : Les mécanismes de structuration [Barley, 1986] 74
Figure 5 : Modélisation des concepts et propositions de la TSA [DeSanctis et Poole, ibid.] 85
Figure 6 : le modèle structurationnel de la technologie [Orlikowski, 1992] 90
Figure 7 : Données, Informations et Connaissances [Boisot et Canals, 2003]. 107
Figure 8 : La danse générative [adaptée de Cook et Brown, 1999] 113
Figure 9 : La matrice des formes de la connaissance [Nonaka et Takeuchi, 1995] 114
Figure 10 : Les modes de conversion de connaissances [Nonaka et Takeuchi, 1995] 115
Figure 11 : Le modèle SECI [Nonaka et Takeuchi, 1995] 118
Figure 12 : Le capital social dans le processus de création de connaissances organisationnelles [adaptée de Nahapiet et Ghoshal, 1998] 133
Figure 13 : Synthèse de la littérature sur les partenariats entre recherche publique et recherche privée 178
Figure 14 : La création de connaissances dans les partenariats recherche publique / recherche privée 180
Figure 15 : Le modèle tourbillonnaire [Akrich, Callon et Latour, ibid.] 195
Figure 16 : Les différents types d’OIC [Jeantet et al., 1996] 201
Figure 17 : L'énaction de la « technology-in-practice » [Orlikowski, 2000 : 410] 207
Figure 18 : Co-évolution de la conception et des usages 213
Figure 19 : Formalisation et contextualisation du changement dans les quatre démarches de recherche [David, 2000 b : 205] 223
Figure 20 : Les boucles de co-conception dans une démarche orientée usage 237
Figure 21 : Le cycle de recherche et de développement de l’approche scientifique de design organisationnel [adapté de Romme et Endenburg, 2006 : 288] 240
Figure 22 : Couplage des designs de recherche intervention 241
Figure 23 : Organisation de l’équipe de conception du projet KMP 249
Figure 24 : Les boucles de co-conception du projet KMP 264
Figure 25 : La conception sémantique 275
Figure 26 : Conception sémantique et approche scientifique de la conception 275
Figure 27 : Comparaison des effectifs de recherche et des effectifs industriels en microélectronique, télécoms et logiciels en PACA avec les autres grands pôles européens [issu de la réponse du pôle SCS à l’appel à projet pôle de compétitivité] 292
Figure 28 : Poster Telecom Valley 300
Figure 29 : Analyse chronologique des boucles de co-conception 301
Figure 30 : La chaîne des compétences [Guilhon, 1994] 304
Figure 31: la théorie de la structuration : un apport à un double niveau 342
Figure 32 : Synthèse méthodologique 344
Figure 33 : Architecture des ontologies KMP 353
Figure 34 : Evolution des ontologies au cours du projet KMP 354
Figure 35 : La chaîne de valeur télécoms 359
Figure 36 : Le cluster télécoms sophipolitain 361
Figure 37 : Représentation synthétique du pôle SCS 362
Figure 38 : Représentation détaillée du pôle SCS 363
Figure 39 : Représentation des clubs et associations sophipolitaines proposée à la journée des clubs le 10 Mars 2004. 370
Figure 40 : Co-conception et trajectoires d'usage de la communauté industrielle : une co-évolution positive 373
Figure 41 : Co-conception et trajectoires d'usage de la communauté de la recherche publique : une co-évolution en pointillés 376
Figure 42 : Les filtres de connaissances dans le cluster STIC sophipolitain 385
Figure 43 : Rôle des concepts et objets développés dans KMP sur les proximités 388
Figure 44 : Modélisation du pôle (issue de la réponse à l’appel à projet pôle de compétitivité SCS) 401
Figure 45 : Caractérisation de l’évolution de la représentation de l’espace commun 404
Figure 46 : Le rôle des porte-paroles dans l’expérimentation KMP 406
Figure 47 : Combinaison des différentes approches théoriques 412
Figure 48 : Synthèse théorique 413 Liste des tableaux  TOC \t "Tableau;1" \hTableau 1 : Synthèse du modèle de la traduction [source : Callon et Latour, op. cit.]. 42
Tableau 2 : les propositions de la TSA [DeSanctis et Poole, ibid..] 85
Tableau 3 : Synthèse théorique sur la technologie et les usages. 98
Tableau 4 : Motivations de la sphère publique à coopérer 161
Tableau 5 : Modes d’interaction et type de connaissances [adapté de Schartinger et al, 2002] 170
Tableau 6 : Les paradigmes de recherche en sciences de gestion [David, 2000 a]. 226
Tableau 7 : Les trois idéaux-types d’engagement dans la recherche en sciences de gestion [adapté de Romme, 2003 : 559] 230
Tableau 8 : les différentes compétences dans le projet KMP [rapport RNRT] 255
Tableau 9 : Vision synthétique des interactions chercheurs-terrain 263
Tableau 10 : Boucles de co-conception n°1 : 2001-2002 265
Tableau 11 : Boucles de co-conception n°2 : 2003 267
Tableau 12 : Boucles de co-conception n°3 : 2004 270
Tableau 13 : Boucles de co-conception n°4 : 2005-2006 272
Tableau 14 : Les éléments de connaissances codifiées dans le cadre du projet KMP 336
Tableau 15 : première grille d’opérationnalisation des variables de la cognition distribuée 340
Tableau 16 : Scénarios génériques, logiques d’action et processus clés 346
Tableau 17 : Le modèle des compétences dans KMP 365
Tableau 18 : Compétences complémentaires/Compétences similaires 368 Liste des encadrés  TOC \t "EncadrÈ;1" \h Table des matières  TOC \o "1-9" \t "Titre 9;9;Titre 8;8;Titre 7;7;Titre 5;5;Titre 4;4;Titre 3;3;Titre 2;2;Titre 1;1;Titre principal;1;Titre thèse;1" \h HYPERLINK \l "_toc1278"Introduction Générale 1
 HYPERLINK \l "_toc1285"La création de connaissances : un enjeu actuel 1
 HYPERLINK \l "_toc1301"Problématique et question de recherche 5
 HYPERLINK \l "_toc1325"À propos de la méthode 7
 HYPERLINK \l "_toc1336"Présentation globale du processus de recherche 9
Chapitre 1 : De la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage 14
 HYPERLINK \l "_toc1350"Introduction 15
 HYPERLINK \l "3.1.1. Apports de la sociologie des usages|outline"1.1. Apports de la sociologie des usages 18
 HYPERLINK \l "3.1.1.1.1. L’approche de la diffusion |outline"1.1.1. L’approche de la diffusion 18
 HYPERLINK \l "3.2.1.1.2. L’approche de l’appropriation|outline"1.1.2. L’approche de l’appropriation 21
 HYPERLINK \l "3.3.1.1.3. L’approche de l’innovation|outline"1.1.3. L’approche de l’innovation 27
 HYPERLINK \l "3.3.1.1.3.2.1. Les réseaux d’innovation|outline"1.3.2.1. Les réseaux d’innovation 28
 HYPERLINK \l "3.3.2.1.3.2.2. Le modèle de la traduction |outline"1.3.2.2. Le modèle de la traduction  33
 HYPERLINK \l "3.3.3.1.3.2.3. Usages et traduction : les apports des travaux de Madeleine Akrich|outline"1.3.2.3. Usages et traduction : les apports des travaux de Madeleine Akrich 43
 HYPERLINK \l "_toc1636"1.2. Sciences cognitives et usages 49
 HYPERLINK \l "4.1.1.2.1. Les enseignements de la théorie de la cognition distribuée|outline"1.2.1. Les enseignements de la théorie de la cognition distribuée 50
 HYPERLINK \l "4.1.1.1.2.1.1. Postulat de base : une analyse du système fonctionnel|outline"1.2.1.1. Postulat de base : une analyse du système fonctionnel 50
 HYPERLINK \l "4.1.2.1.2.1.2. Les versants écologique et social de la cognition distribuée|outline"1.2.1.2. Les versants écologique et social de la cognition distribuée 53
 HYPERLINK \l "4.2.1.2.2. Une conception particulière de l’interaction outil/utilisateur et de l’usage de l’outil13|outline"1.2.2. Une conception particulière de l’interaction outil/utilisateur et de l’usage de l’outil 60
 HYPERLINK \l "4.2.1.1.2.2.1. Une conception originale des outils et de leurs propriétés intrinsèques.|outline"1.2.2.1. Une conception originale des outils et de leurs propriétés intrinsèques. 61
 HYPERLINK \l "4.2.2.1.2.2.2. Une conception particulière de l’usage de l’outil|outline"1.2.2.2. Une conception particulière de l’usage de l’outil 62
 HYPERLINK \l "5.1.3. Les apports de la théorie de la structuration à l’appropriation des TIC|outline"1.3. Les apports de la théorie de la structuration à l’appropriation des TIC 65
 HYPERLINK \l "5.0.1.1.3.3.1. Les origines de la théorie de la structuration |outline"1.3.3.1. Les origines de la théorie de la structuration 66
 HYPERLINK \l "5.0.2.1.3.3.2. L’apport des travaux de Barley [1986]|outline"1.3.3.2. L’apport des travaux de Barley [1986] 74
 HYPERLINK \l "5.0.3.1.3.3.3. La théorie de la structuration adaptative |outline"1.3.3.3. La théorie de la structuration adaptative 77
 HYPERLINK \l "5.0.4.1.3.3.4. Orlikowski et le modèle structurationnel|outline"1.3.3.4. Orlikowski et le modèle structurationnel 88
 HYPERLINK \l "5.0.5.1.3.3.5. La prise en compte d’usages « encastrés dans un structurel »|outline"1.3.3.5. La prise en compte d’usages « encastrés dans un structurel » 95
 HYPERLINK \l "_toc1949"Pour une articulation des approches … 97
Chapitre 2 : Les pratiques de montage de projets innovants dans les partenariats recherche publique / recherche privée 100
 HYPERLINK \l "_toc2061"Introduction 101
 HYPERLINK \l "_toc2137"2.1. La création de connaissances : une pratique collective 103
 HYPERLINK \l "8.1.2.1.1. Clarification conceptuelle|outline"2.1.1. Clarification conceptuelle 103
 HYPERLINK \l "8.1.1.2.1.1.1. Données, information, connaissance|outline"2.1.1.1. Données, information, connaissance 103
 HYPERLINK \l "8.1.2.2.1.1.2. Les formes de connaissances |outline"2.1.1.2. Les formes de connaissances 108
 HYPERLINK \l "8.2.2.1.2. Les modèles de création de connaissances organisationnelles|outline"2.1.2. Les modèles de création de connaissances organisationnelles 115
 HYPERLINK \l "8.2.1.2.1.2.1. Le modèle SECI de Nonaka et Takeuchi|outline"2.1.2.1. Le modèle SECI de Nonaka et Takeuchi 115
 HYPERLINK \l "8.2.2.2.1.2.2. Les enjeux de la codification|outline"2.1.2.2. Les enjeux de la codification 120
 HYPERLINK \l "8.2.3.2.1.2.3. Le modèle social de création de connaissances organisationnelles |outline"2.1.2.3. Le modèle social de création de connaissances organisationnelles 124
 HYPERLINK \l "8.2.4.2.1.2.4. L’approche communautaire|outline"2.1.2.4. L’approche communautaire 134
 HYPERLINK \l "_toc2299"2.2. Les problèmes spécifiques des partenariats de recherche publique / privée dans le contexte des télécoms 142
 HYPERLINK \l "9.1.2.2.1. Le système de recherche et d’innovation français|outline"2.2.1. Le système de recherche et d’innovation français 143
 HYPERLINK \l "9.1.1.2.2.1.1. Le système de recherche et d’innovation français jusqu’en 1980|outline"2.2.1.1. Le système de recherche et d’innovation français jusqu’en 1980 143
 HYPERLINK \l "9.1.2.2.2.1.2. Les mutations : vers un système incitatif|outline"2.2.1.2. Les mutations : vers un système incitatif 147
 HYPERLINK \l "9.2.2.2.2. Le secteur des télécommunications français|outline"2.2.2. Le secteur des télécommunications français 152
 HYPERLINK \l "9.2.1.2.2.2.1. Les évolutions technologiques et institutionnelles |outline"2.2.2.1. Les évolutions technologiques et institutionnelles 153
 HYPERLINK \l "9.2.2.2.2.2.2. Le système français de soutien à l’innovation dans ce secteur|outline"2.2.2.2. Le système français de soutien à l’innovation dans ce secteur 155
 HYPERLINK \l "9.3.2.2.3. Les partenariats de recherche publique / privée : modalités et freins|outline"2.2.3. Les partenariats de recherche publique / privée : modalités et freins 158
 HYPERLINK \l "9.3.1.2.2.3.1. Sphère publique et sphère privée : deux communautés différentes|outline"2.2.3.1. Sphère publique et sphère privée : deux communautés différentes 158
 HYPERLINK \l "9.3.2.2.2.3.2. L’incidence des modalités contractuelles|outline"2.2.3.2. L’incidence des modalités contractuelles 164
 HYPERLINK \l "9.3.3.2.2.3.3. Les déterminants du choix des partenaires|outline"2.2.3.3. Les déterminants du choix des partenaires 171
 HYPERLINK \l "9.3.4.2.2.3.4. L’importance des proximités|outline"2.2.3.4. L’importance des proximités 173
 HYPERLINK \l "_toc2669"Conclusion 179
Chapitre 3 : Une démarche de co-conception dans une approche usage : le cas KMP 182
 HYPERLINK \l "_toc2685"Introduction 183
 HYPERLINK \l "_toc2802"3.1. L’intégration des usagers dans la démarche de co-conception 185
 HYPERLINK \l "12.1.3.1.1. Les situations de conception, caractéristiques générales |outline"3.1.1. Les situations de conception, caractéristiques générales 185
 HYPERLINK \l "12.1.1.3.1.1.1. Les démarches traditionnelles|outline"3.1.1.1. Les démarches traditionnelles 185
 HYPERLINK \l "12.1.2.3.1.1.2. L’intégration des utilisateurs : vers la co-conception|outline"3.1.1.2. L’intégration des utilisateurs : vers la co-conception 187
 HYPERLINK \l "12.2.3.1.2. La co-conception : apports de la théorie de la traduction |outline"3.1.2. La co-conception : apports de la théorie de la traduction 193
 HYPERLINK \l "12.2.1.3.1.2.1. Le modèle tourbillonnaire : entre art de l’intéressement et choix des bons porte-paroles|outline"3.1.2.1. Le modèle tourbillonnaire : entre art de l’intéressement et choix des bons porte-paroles 193
 HYPERLINK \l "12.2.2.3.1.2.2. Des supports à la médiation : rôle et nature des objets intermédiaires et des objets frontières|outline"3.1.2.2. Des supports à la médiation : rôle et nature des objets intermédiaires et des objets frontières 198
 HYPERLINK \l "12.3.3.1.3. Pour une articulation des théories de la structuration et de la traduction|outline"3.1.3. Pour une articulation des théories de la structuration et de la traduction 204
 HYPERLINK \l "12.3.1.3.1.3.1. Les apports de la théorie de la structuration à la démarche de co-conception |outline"3.1.3.1. Les apports de la théorie de la structuration à la démarche de co-conception 204
 HYPERLINK \l "12.3.2.3.1.3.2. Le monde des usagers : trajectoire des activités signifiantes|outline"3.1.3.2. Le monde des usagers : trajectoire des activités signifiantes 208
 HYPERLINK \l "_toc3107"3.2. Méthodologie de la recherche 215
 HYPERLINK \l "13.1.3.2.1. La recherche intervention comme architecture de recherche|outline"3.2.1. La recherche intervention comme architecture de recherche 216
 HYPERLINK \l "13.1.1.3.2.1.1. Le choix d’une recherche intervention|outline"3.2.1.1. Le choix d’une recherche intervention 216
 HYPERLINK \l "13.1.2.3.2.1.2. Le déroulement d’une recherche intervention|outline"3.2.1.2. Le déroulement d’une recherche intervention 219
 HYPERLINK \l "13.2.3.2.2. La question de la posture épistémologique|outline"3.2.2. La question de la posture épistémologique 220
 HYPERLINK \l "13.2.1.3.2.2.1. La conception comme finalité|outline"3.2.2.1. La conception comme finalité 220
 HYPERLINK \l "13.2.2.3.2.2.2. Le design research comme posture épistémologique|outline"3.2.2.2. Le design research comme posture épistémologique 224
 HYPERLINK \l "13.3.3.2.3. La « boîte à outils » du chercheur-intervenant|outline"3.2.3. La « boîte à outils » du chercheur-intervenant 232
 HYPERLINK \l "13.3.1.3.2.3.1. Les principes et règles méthodologiques de la recherche intervention|outline"3.2.3.1. Les principes et règles méthodologiques de la recherche intervention 232
 HYPERLINK \l "13.3.2.3.2.3.2. Le design des recherches interventions|outline"3.2.3.2. Le design des recherches interventions 235
 HYPERLINK \l "13.3.3.3.2.3.3. Plaidoyer en faveur d’une démarche « scientifique » de recherche intervention|outline"3.2.3.3. Plaidoyer en faveur d’une démarche « scientifique » de recherche intervention 238
 HYPERLINK \l "14.3.3. Le contexte de l’intervention : le projet KMP|outline"3.3. Le contexte de l’intervention : le projet KMP 243
 HYPERLINK \l "14.1.3.3.1. Présentation du projet |outline"3.3.1. Présentation du projet 243
 HYPERLINK \l "14.1.1.3.3.1.1. Le contexte|outline"3.3.1.1. Le contexte 244
 HYPERLINK \l "14.1.2.3.3.1.2. Les objectifs |outline"3.3.1.2. Les objectifs 246
 HYPERLINK \l "14.1.3.3.3.1.3. L’équipe de conception|outline"3.3.1.3. L’équipe de conception 247
 HYPERLINK \l "14.1.4.3.3.1.4. L’organisation du projet|outline"3.3.1.4. L’organisation du projet 249
 HYPERLINK \l "14.1.5.3.3.1.5. Les principaux résultats opérationnels 90 |outline"3.3.1.5. Les principaux résultats opérationnels 258
 HYPERLINK \l "14.2.3.3.2. Démarche méthodologique|outline"3.3.2. Démarche méthodologique 261
 HYPERLINK \l "14.2.1.3.3.2.1. Le dispositif d’interaction|outline"3.3.2.1. Le dispositif d’interaction 261
 HYPERLINK \l "14.2.2.3.3.2.2. La démarche de connaissance au sein des boucles de co-conception|outline"3.3.2.2. La démarche de connaissance au sein des boucles de co-conception 263
 HYPERLINK \l "14.3.3.3.3. La question de la validité des résultats de la recherche|outline"3.3.3. La question de la validité des résultats de la recherche 274
 HYPERLINK \l "14.3.1.3.3.3.1. Validité du construit ou fiabilité de la recherche|outline"3.3.3.1. Validité du construit ou fiabilité de la recherche 274
 HYPERLINK \l "14.3.2.3.3.3.2. Validité interne et validité externe|outline"3.3.3.2. Validité interne et validité externe 279
 HYPERLINK \l "_toc4005"Conclusion 282
Chapitre 4 : Résultats et discussions 285
 HYPERLINK \l "_toc4025"Introduction 286
 HYPERLINK \l "17.4.1. Identification des acteurs sophipolitains, de leur base de connaissances et de leurs interactions|outline"4.1. Identification des acteurs sophipolitains, de leur base de connaissances et de leurs interactions 288
 HYPERLINK \l "17.1.4.1.1. Sophia Antipolis : une reconnaissance significative dans le domaine de l’info-com.|outline"4.1.1. Sophia Antipolis : une reconnaissance significative dans le domaine de l’info-com. 288
 HYPERLINK \l "17.1.1.4.1.1.1. D’une plateforme satellitaire à une véritable technopole : l’émergence d’interactions.|outline"4.1.1.1. D’une plateforme satellitaire à une véritable technopole : l’émergence d’interactions. 288
 HYPERLINK \l "17.1.2.4.1.1.2. La convergence microélectronique, télécom et informatique : des opportunités nouvelles de combinaison|outline"4.1.1.2. La convergence microélectronique, télécom et informatique : des opportunités nouvelles de combinaison 290
 HYPERLINK \l "17.2.4.1.2. La technopole sophipolitaine : des complémentarités potentielles entre recherche publique et recherche privée |outline"4.1.2. La technopole sophipolitaine : des complémentarités potentielles entre recherche publique et recherche privée 293
 HYPERLINK \l "18.4.2. Les étapes : analyse chronologique de la démarche de co-conception|outline"4.2. Les étapes : analyse chronologique de la démarche de co-conception 301
 HYPERLINK \l "18.1.4.2.1. Analyse de la boucle 2001-2002|outline"4.2.1. Analyse de la boucle 2001-2002 302
 HYPERLINK \l "18.2.4.2.2. Analyse de la boucle 2003|outline"4.2.2. Analyse de la boucle 2003 310
 HYPERLINK \l "18.3.4.2.3. Analyse de la boucle 2004|outline"4.2.3. Analyse de la boucle 2004 322
 HYPERLINK \l "18.4.4.2.4. Analyse de la boucle 2005-2006|outline"4.2.4. Analyse de la boucle 2005-2006 329
 HYPERLINK \l "19.4.3. Les boucles de co-conception : le rôle des objets intermédiaires de conception|outline"4.3. Les boucles de co-conception : le rôle des objets intermédiaires de conception 338
 HYPERLINK \l "19.1.4.3.1. Les scénarios d’usage|outline"4.3.1. Les scénarios d’usage 338
 HYPERLINK \l "19.1.1.4.3.1.1. Apports de la théorie de la cognition distribuée aux scénarios d’usage : la vision des informaticiens|outline"4.3.1.1. Apports de la théorie de la cognition distribuée aux scénarios d’usage : la vision des informaticiens 339
 HYPERLINK \l "19.1.2.4.3.1.2. Apports de la théorie de la structuration au modèle des scénarios : la vision des gestionnaires|outline"4.3.1.2. Apports de la théorie de la structuration au modèle des scénarios : la vision des gestionnaires 341
 HYPERLINK \l "19.1.3.4.3.1.3. La combinaison des approches|outline"4.3.1.3. La combinaison des approches 344
 HYPERLINK \l "19.1.4.4.3.1.4. Apports de la méthode des scénarios à l’expérimentation KMP|outline"4.3.1.4. Apports de la méthode des scénarios à l’expérimentation KMP 344
 HYPERLINK \l "19.2.4.3.2. Les ontologies|outline"4.3.2. Les ontologies 350
 HYPERLINK \l "20.4.4. Les trajectoires d’usage : le rôle des objets frontières|outline"4.4. Les trajectoires d’usage : le rôle des objets frontières 356
 HYPERLINK \l "20.1.4.4.1. Le rôle des objets frontières dans les processus d’intéressement |outline"4.4.1. Le rôle des objets frontières dans les processus d’intéressement 356
 HYPERLINK \l "20.1.1.4.4.1.1. Le concept de cartographie|outline"4.4.1.1. Le concept de cartographie 356
 HYPERLINK \l "20.1.2.4.4.1.2. Représentation de l’espace commun : chaîne de valeur, représentation du cluster télécoms, représentation du pôle SCS|outline"4.4.1.2. Représentation de l’espace commun : chaîne de valeur, représentation du cluster télécoms, représentation du pôle SCS 358
 HYPERLINK \l "20.1.3.4.4.1.3. Le modèle des compétences108|outline"4.4.1.3. Le modèle des compétences 364
 HYPERLINK \l "20.1.4.4.4.1.4. Similarité et complémentarité|outline"4.4.1.4. Similarité et complémentarité 367
 HYPERLINK \l "20.1.5.4.4.1.5. Prototypes P1, P2 112|outline"4.4.1.5. Prototypes P1, P2 370
 HYPERLINK \l "20.1.6.4.4.1.6. Fiche descriptive des entreprises et organismes de recherche|outline"4.4.1.6. Fiche descriptive des entreprises et organismes de recherche 371
 HYPERLINK \l "20.2.4.4.2. Objets frontières et convergence des trajectoires d’usage et des boucles de co-conception|outline"4.4.2. Objets frontières et convergence des trajectoires d’usage et des boucles de co-conception 372
 HYPERLINK \l "20.2.1.4.4.2.1. Co-conception et trajectoires d'usage de la communauté industrielle : une co-évolution positive|outline"4.4.2.1. Co-conception et trajectoires d'usage de la communauté industrielle : une co-évolution positive 373
 HYPERLINK \l "20.2.2.4.4.2.2. Co-conception et trajectoires d'usage de la communauté de la recherche publique : une co-évolution en pointillés|outline"4.4.2.2. Co-conception et trajectoires d'usage de la communauté de la recherche publique : une co-évolution en pointillés 376
 HYPERLINK \l "21.4.5. Retour sur les principes de construction|outline"4.5. Retour sur les principes de construction 382
 HYPERLINK \l "21.1.4.5.1. Sur le rôle des TIC dans les partenariats recherche publique – recherche privée|outline"4.5.1. Sur le rôle des TIC dans les partenariats recherche publique – recherche privée 382
 HYPERLINK \l "21.2.4.5.2. Sur la démarche de co-conception orientée usage d’une solution TIC |outline"4.5.2. Sur la démarche de co-conception orientée usage d’une solution TIC 390
 HYPERLINK \l "21.2.1.4.5.2.1. Co-évolution de la conception et des usages|outline"4.5.2.1. Co-évolution de la conception et des usages 391
 HYPERLINK \l "21.2.2.4.5.2.2. Le rôle des objets frontières : intéressement des usagers et convergence des trajectoires d’usage et des boucles de co-conception|outline"4.5.2.2. Le rôle des objets frontières : intéressement des usagers et convergence des trajectoires d’usage et des boucles de co-conception 394
 HYPERLINK \l "21.2.3.4.5.2.3. Trajectoires d’usage et rôle des porte-paroles|outline"4.5.2.3. Trajectoires d’usage et rôle des porte-paroles 404
 HYPERLINK \l "21.2.4.4.5.2.4. Vers une synthèse de la démarche de co-conception orientée usage|outline"4.5.2.4. Vers une synthèse de la démarche de co-conception orientée usage 411
 HYPERLINK \l "_toc5096"Conclusion générale 414
 HYPERLINK \l "_toc5115"Références bibliographiques 419
 HYPERLINK \l "_toc5429"Annexes 437
 HYPERLINK \l "_toc5430"Annexe 1 : les grilles d’entretiens utilisées dans le projet KMP 437
 HYPERLINK \l "_toc5677"Annexe 2 : Historique du projet 448
 HYPERLINK \l "_toc9078"Annexe 3 : Exemple de scénario d’usage 464
 HYPERLINK \l "_toc9093"III. LE PROCESSUS 464
 HYPERLINK \l "_toc9207"Annexe 4 : L’ontologie des télécommunications 467
 HYPERLINK \l "_toc9274"Annexe 5 : Exemples d’interfaces du prototype KMP 470
 HYPERLINK \l "_toc9309"Liste des figures 476
 HYPERLINK \l "_toc9360"Liste des tableaux 478
 HYPERLINK \l "_toc9381"Liste des encadrés 479
 HYPERLINK \l "_toc9385"Table des matières 480
 “In this society, knowledge is the primary resource for individuals and for the economy overall. Land, labor, and capital-the economist's traditional factors of production- do not disappear, but they become secondary” traduction issue de Tarondeau, [2002]
 Les nouvelles technologies de l’information et de la communication désignent un ensemble de connaissances, techniques et procédés ayant trait au traitement, au stockage et à la communication de l’information [Volle, 2000].
 On constate en effet de fortes variations sur le plan des usages entre les utilisateurs, et cela, au sein de contextes d’usage pourtant similaires et bien que la technologie ait été, d’une part « adoptée » – son acquisition en vue d’un usage futur ayant fait l’objet d’une démarche consciente et volontaire – et d’autre part, « appropriée » – les usagers ayant développés un usage relativement stabilisé au sens restreint d’un usage régulier ancré dans le quotidien. Ces variations peuvent concerner (1) le mode d’utilisation du dispositif, ce qui renvoie à la fois à l’étendue, à la nature des usages développés et au degré de « sophistication » de l’utilisation, et (2) la forme d’engagement de l’usager dans la pratique, liée à des styles de relations différenciées à la technologie.
 Rogers a publié quatre éditions de son ouvrage fondateur « Diffusion of innovations » [1962, 1971, 1983, 1995].
 Cf. Boullier [1989], Chambat [1994]
 Cette présentation ne suit pas l’ordre chronologique des travaux du CSI mais nous paraît être plus appropriée pour mettre en évidence les apports de ce courant.
 Cette notion est définie dans l’ouvrage de Latour : « l’expression boîte noire est utilisée par les cybernéticiens pour désigner un appareil ou une série d’instructions d’une grande complexité. Ils dessinent une petite boîte dont ils n’ont rien besoin de connaître d’autre que ce qui y entre et ce qui en sort » [1989 : 10].
 Nous ne traiterons ici pas de tous les travaux d’Akrich tant ceux-ci sont nombreux mais nous nous concentrerons uniquement sur ceux qui traitent directement du rôle des usagers dans le processus d’innovation.
 « Comme toutes les autres branches des sciences cognitives, la cognition distribuée cherche à comprendre l’organisation des systèmes cognitifs. Comme la plupart des études sur la cognition, elle considère que les processus cognitifs mettent en jeu la mémoire, la prise de décision, l’inférence, le raisonnement, l’apprentissage … » [Hutchins, 2000 : 1].
 Ceci explique que ses analyses portes souvent sur des agencements d’artefact dans une cuisine ou un bureau par exemple.
 Cité par Conein [op. cit. : 14].
 Selon Hutchins [1995 : 65], « il y a une interface ouverte lorsque les items qui sont localisés dans un espace partagé sont facilement accessibles à tous les membres de l’équipage, de telle manière que chacun peut voir ce que l’autre fait avec tel item ».
 Cette section s’appuie sur des travaux antérieurs que nous avons menés avec E. Rouby [Pascal et Rouby, 2004]
 Nous faisons référence ici aux travaux structurationnistes que nous développerons dans le prochain point.
 TechnologyAcceptance Model
 Notons à ce titre que la dernière version du modèle TAM, nommé modèle UTAUT [Venkatesh et al., 2003], cherche à unifier l’ensemble des théories qui traite, dans une même perspective, de l’acceptation de technologies par l’usager : parmi ces théories figurent la théorie de la diffusion des innovations de Rogers.
 Nous verrons par la suite que la majeure partie des critiques effectuées au courant de la théorie de la structuration adaptative tient à ce choix de méthodes, qui, selon Jones [1999], ne coïncide pas avec la vision de la théorie de la structuration. Ainsi, comme le souligne DeVaujany, « l’argument est simple : une approche structurationniste s’accommode mal d’une stratégie de recherche en milieu hétéré du type groupe expérimental. La raison en est assez évidente : il n’y a pas véritablement de structures sociales à l’œuvre dans ce type d’environnement artificiel » [2001 : 87].
 Barley [1986], comme nous l’avons vu précédemment, constitue une exception puisqu’il analyse le cas de scanners médicaux.
 Il ne faut pas oublier que les approches structurationnistes, hormis celle de Barley [1986], se concentrent exclusivement sur des technologies informatiques, et majoritairement sur des technologies informatiques collaboratives et de support à la décision.
 “Knowledge management is on the slippery slope of becoming intuitively important but intellectually elusive ».
 Ces concepts ont déjà été analysés et mobilisés dans la cadre d’une recherche doctorale conduite au sein de notre équipe de recherche, l’équipe DCC (Dynamique des Compétences et des Connaissances) du GREDEG, par P.J. Barlatier [2006]. La présente section s’appuie sur les résultats de cette recherche.
 « if knowledge is not something different from data and information, then there is nothing new or interesting in knowledge management »
 « … data to be a property of things-in-the-world, an objectively ascertainable difference between two states »
 “Information consists of differences that make a difference”
 Selon Nonaka et Takeuchi il n’existe pas de connaissance collective sans individus [1995].
 “By information, we mean knowledge which can be transmitted without loss of integrity once the syntactical rules required for deciphering it are known”.
 Dans cette section nous ne traduirons volontairement pas le terme knowing qui n’a, selon nous, pas d’équivalence réelle en français. En effet, les auteurs utilisent le suffixe –ing dans le concept de knowing pour mettre en évidence l’idée d’action, de pratique, a contrario de knowledge qui aurait trait au caractère statique et possédé de la connaissance.
 Ceci correspond également à la vision développée par Polanyi [1966]
 De nombreux auteurs [Cowan et al., 2000 et Boisot 1998] appellent cette étape « codification ». En outre, le processus d’articulation rappelle le processus de construction de représentations communes (« ba du dialogue ») décrit par Nonaka et al. [2000].
 Le processus d’abstraction est très proche de celui de « codification » au sens d’Håkanson, qui décrit la codification comme l’expression d’un savoir dans une forme relativement standardisée et fixe. Il rappelle aussi l’idée de « ba de la systématisation » décrit par Nonaka et al. (2000).
 « to produce means to combine materials and forces within our reach »
 “…The ability to access new knowledge from outside the boundaries of the organization.”
 « … a collection of individuals who have had experience in working together ».
 « In reviewing the burgeoning literature on knowledge and knowing, we have encountered much evidence in support of the view that the combination and exchange are complex social processes and that the much valuable knowledge is fundamentally socially embedded »
 « A collective actor such as a firm is influenced by both its external linkages to other firms and institutions and the fabric of its internal linkages : its capacity for effective action is typically a function of both ».
 « Social capital is a resource for individual and collective actors created by the configuration and content of the network of their more or less durable social relations ».
 ‘the sum of the actual and potential resources embedded within, available through, and derived from the network of relationships possessed by an individual or social unit. Social capital thus comprises both the network and the assets that may be mobilized through that network ».
 “Knowledge is most effectively generated, combined, and transferred by individuals who ‘identify’ with a larger collective”.
 “Boundary objects are objects which are both plastic enough to adapt to local needs and constraints of several parties employing them, yet robust enough to maintain a common identity across sites.”
 “They have different meanings in different social worlds but their structure is common enough to more than one world to make them recognizable, a means of translation”
 « An epistemic community is a network of professionals with recognized expertise and competence in a particular domain and an authoritative claim to policy relevant knowledge within a domain or issue-area. »
 “…agents who work on a mutually recognized subset of knowledge issues, and who at the very least accept some commonly procedural authority as essential to the success of their collective building activities”.
 Exception faite du cas où l’autorité procédurale est imposée de l’extérieur, ce qui implique alors que la communauté n’est pas nécessairement ici une entité auto-organisée.
 Le système de recherche français comprend 9 EPST : le CEMAGREF (Centre national du Machinisme Agricole, du Génie Rural, des Eaux et des Forêts), le CNRS (Centre National de la Recherche Scientifique), l’INED (Institut National d'Etudes Démographiques), l’INRA (Institut National de la Recherche Agronomique ), l’INRETS (Institut National de Recherche sur les Transports et leur Sécurité), l’INRIA (Institut national de Recherche en Informatique et en Automatique), l’INSERM (Institut National de la Santé et de la Recherche Médicale), l’IRD (Institut de Recherche pour le Développement) et le LCPC (Laboratoire Central des Ponts et Chaussées).
 Le système de recherche français comprend 15 EPIC : l’ADEME (Agence de l'Environnement et de la Maîtrise de l'Energie), l’ADIT (Agence pour la Diffusion de l'Information technologique), l’ANDRA (Agence Nationale de Gestion des Déchets Radioactifs), l’ANVAR (Agence Nationale de Valorisation de la Recherche), le BRGM (Bureau de Recherches Géologiques et Minières), le CEA (Commissariat à l'Energie Atomique), le CIRAD (Centre de Coopération International en Recherche Agronomique), le CNDP (Centre National de Documentation Pédagogique), le CNED (Centre National d'Enseignement à Distance), le CNES (Centre National d'Etudes Spatiales), la CSI (Cité des Sciences et de l'Industrie), le CSTB (Centre Scientifique et Technique du Bâtiment), l’IFREMER (Institut Français de Recherche pour l'Exploitation de la Mer), l’INERIS (Institut National de l'Environnement Industriel et des Risques), l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire) et l’ONERA (Office National d'Etudes et de Recherches Aérospatiales). Nous pouvons rajouter ici, le seul établissement professionnel de recherche français à savoir l’Institut Français du Pétrole (IFP).
 Le système de recherche français comprend 4 EPA: le CEE (Centre d'Etudes de l'Emploi), le CINES (Centre Informatique National de l'Enseignement Supérieur), l’INRP (Institut National de Recherche Pédagogique), l’EPA (Jussieu : désamiantage, mise en sécurité et rénovation du site), et l’INRAP (Institut National de Recherches Archéologiques Préventives).
 Le système de recherche français comprend 4 fondations de recherche : le CEPH (Centre d'étude du polymorphisme humain), l’Institut Curie, l’Institut Pasteur de Paris et l’Institut Pasteur de Lille.
 Le système de recherche français comprend 8 Groupements d'Intérêt Public (GIP) : l’ANRS (Agence Nationale de la Recherche sur le Sida), le CNRG (Consortium National de Recherche en génomique), le CNRSSP (Centre National de Recherche sur les Sites et Sols Pollués), l’IPEV (Institut polaire français Paul-Emile Victor), le GENOPOLE GIP consacré à la recherche en génomique et au développement d'entreprises de biotechnologies, l’OST (Observatoire des Sciences et techniques), et le RENATER Réseau national pour la technologie, l'enseignement et la recherche) ou l’Agence Nationale de la Recherche (ANR).
 Depuis janvier 2005, l'ANVAR fait partie du groupe OSÉO, aux côtés de la BDPME. (Banque du Développement des PME) et de sa filiale Sofaris, et de l’organisme OSEO services, en charge pour le compte d’Oséo de deux activités : l’Observatoire des PME et les services en ligne. Ainsi ce groupe OSEO pourra accompagner les petites entreprises dans les différentes phases de leur existence et les informer plus facilement sur les différents dispositifs de soutien public à leur disposition.
 Le crédit d'impôt recherche est une aide publique qui permet d'accroître la compétitivité des entreprises en soutenant leur effort de R&D : il consiste en une réduction d'impôt égale à la moitié des dépenses de R&D engagées sur une année, minorée de la moyenne des dépenses de même nature des deux années précédentes. Le crédit d'impôt recherche est plafonné à 6,1 millions d'euros par entreprise et par an. Peuvent en bénéficier toutes les entreprises industrielles, commerciales ou agricoles, ainsi que les associations régies par la loi de 1901. Environ 7 000 entreprises déposent chaque année une déclaration de crédit d'impôt recherche. Près de 3 200 sont admises à en bénéficier, parmi celles- ci plus de la moitié sont des PME. Le coût annuel du crédit d'impôt recherche est de 426,8 millions d'euros.
 La loi sur l’innovation et la recherche pour favoriser la création d’entreprise de technologies innovantes du 12 juillet 1999 encourage le transfert de technologies de la recherche publique vers l’économie et la création d’entreprises innovantes. Elle a pour objectif d’offrir un cadre juridique favorisant la création d’entreprise de technologies innovantes. Cette loi comporte 4 volets : (a). La mobilité des hommes et des femmes de la recherche vers l'entreprise : Les personnels de recherche peuvent participer à la création d’une entreprise qui valorise leurs travaux de recherche, ils peuvent également apporter leur concours scientifique à une entreprise qui valorise leurs travaux de recherche, tout en restant dans le service public ou participer au capital d’une entreprise qui valorise leurs travaux de recherche. La prise de participation peut représenter jusqu’à 15% du capital de l’entreprise. Chercheurs et enseignants-chercheurs peuvent enfin être membres d’un organe dirigeant d’une entreprise ; (b). Les collaborations entre la recherche publique et les entreprises : Les établissements d’enseignement supérieur et de recherche peuvent créer des incubateurs ou des « services d’activités industrielles et commerciales» pour gérer leurs contrats de recherche avec des entreprises ou avec d’autres collectivités publiques. La loi simplifie également les créations de filiales et de GIP qui fédèrent des organismes de recherche, des universités et des entreprises. Enfin, des contrats pluriannuels entre l’État et les établissements publics de recherche faciliteront notamment le transfert de technologie ; (c) Le cadre fiscal pour les entreprises innovantes : La loi propose d’assouplir le régime des bons de souscription de parts de créateur d’entreprise et des Fonds Communs de Placement dans l’Innovation (FCPI) ainsi que de rendre plus avantageux le crédit d’impôt recherche ; (d) Le cadre juridique pour les entreprises innovantes : Le régime de la Société par Actions Simplifiée (SAS) est étendu pour que toutes les entreprises innovantes puissent en bénéficier.
 Pour de plus amples détails sur ces points, cf. Delaunay Maculan [1997].
 Cf. rapport Kahn-Lombard dur l’innovation dans les télécommunications.
 Géographiquement les quatre pôles français de la recherche et développement en télécommunications se répartissent entre la région parisienne, la Bretagne (Lannion, Brest), Grenoble (en ce qui concerne la micro-électronique) et Nice-Sophia-Antipolis.
 Plus précisément, les auteurs en proposent quatre, le quatrième étant défini comme laboratoire en mutation. Nous ne définirons pas celui-ci dans la mesure où il s’agit de laboratoire en cours de création et qui ont encore des difficultés à afficher une thématique structurante.
 Majoritairement, les articles recensés évoquent l’importance de la réputation pour le choix de partenaires issus de la recherche publique mais cette variable est finalement peu analysée et ne fait pas l’objet d’une véritable étude sur la question du choix d’un partenaire.
 “…The ability of a firm to recognize the value of new, external information, assimilate it, and apply it to commercial ends… We label this capability a firm’s absorptive capacity…”
 “The main practical benefits of academic research are not easily transmissible information, ideas and discoveries available on equal terms to anyone anywhere in the world. Instead, they are various elements of a problem-solving capacity, involving transmission of often tacit (i.e., non codifiable) knowledge through personal mobility and face-to-face contacts. The benefits therefore tend to be geographically and linguistically localised”.
 Midler emprunte le terme de « situation de conception » à Girin [1990]. Pour Girin, l’objet d’étude des sciences de gestion est celle plus spécifique des situations de gestion « qui se présentent lorsque des participants sont réunis et doivent accomplir, dans un temps déterminé, une action collective conduisant à un résultat soumis à un jugement externe » [1990 : 142].
 C’est ce que mettent notamment en évidence les auteurs du CSI (cf. 1.3.2.)
 En 2004, Caelen a, à ce titre, coordonné un ouvrage sur les démarches de conception participative qui intègrent, dès l’amont du processus de conception, les utilisateurs finaux.
 Dans les démarches de conception participative, les acteurs qui s’engagent dans le processus ont un statut de co-concepteurs qui leur octroie un pouvoir de décision conjointe sur les spécifications de l’artefact.
 “user-centered design”
 Cette spécificité du modèle de la traduction de Callon et Latour marque une opposition supplémentaire par rapport aux approches évolutionnistes traitant de l’innovation : l’évolution du processus d’innovation n’est dans cette perspective pas le fruit de mécanismes de sélection et de mutation (métaphore biologique) mais celui de traductions sociotechniques.
 Tichkiewitch S., Mer S., Jeantet A., Vinck D., notamment.
 Pour définir le concept d’objets frontières, nous prenons largement appui sur le travail de recherche de Lauriol, Francis et Hédia [2004] qui ont mis en évidence les apports de la sociologie de l’innovation à cette notion.
 « Boundary objects are objects which are both plastic enough to adapt to local needs and the constraints of the several parties employing them, yet robust enough to maintain a common identity across sites. They are weakly structured in common use, and become strongly structured in individual-site use. These objetcs may be abstract or concrete. They have different meanings in different social words but their structure is common enough to more than one word to make them recognizable, a means of translation”
 Dans certains articles, Orlikowski utilise le terme de technologie d’adhésion pour parler de la partie solide de la technologie, de son aspect tangible, relativement stable et prévisible en termes de performance.
 « It is difficult to see how a key element in Giddens’s theory – the institutionalization of structure to transcend bounds of space and time – could be captured in what are, after all, relatively brief sequences of group interaction » [Taylor et al., 2001: 160].
 Cf. Le Moigne [1990]
 V. Chanal, H. Lesca et A-C. Martinet, dans leur article publié dans la revue française de gestion en 1997, soulignaient les hésitations encore fortement ancrées des directeurs de recherche à guider leurs étudiants en thèse dans la voie de recherches ingénieriques, jugées trop hasardeuses et risquées par rapport à des méthodes classiques plus reconnues.
 Pour une analyse approfondie, cf. David [2000] ; Allard-Poesi et Perret [2003]
 Au sens d’Argyris [1995]
 Il s’agit de la formulation de Le Moigne [1995] selon laquelle l’économie, la sociologie, la mathématique appliquée, la statistique et même la cybernétique sont des sciences de plein rang dans la mesure où leurs fondements épistémologiques ont été vérifiés depuis longtemps.
 Simon place sous ce vocable les sciences de gestion, de l’information, de l’informatique ou encore de l’architecture.
 Les flèches en trait épais indiquent ce qui est effectivement fait au cours de la recherche, les flèches en trait fin ce qui serait une suite logique du processus, mais inabordée au cours de la recherche, d’où les points d’interrogation dans le tableau.
 Ce point de vue est largement partagé par différentes épistémologies qui, bien que distinctes, sont souvent regroupées sous le vocable de « post-modernes » parce qu’elles ont en commun de rejeter la perspective moderniste, perçue comme équivalente au positivisme, à l’empirisme, c’est-à-dire à la « science normale » [Rojot, 2005].
 Selon David [2000 a], la déduction consiste à déduire de manière certaine la conséquence si la règle et le cas sont vrais (tous les haricots de ce sac sont blancs, ces haricots sur la table viennent du sac, donc ils sont blancs) ; l’induction consiste à proposer une règle pouvant rendre compte de la conséquence si le cas est vrai (ces haricots viennent du sac et ils sont blancs, donc il est possible que tous les haricots du sac soient blancs), et l’abduction, ou rétroduction, à proposer un cas pouvant rendre compte de la conséquence si la règle est vraie (tous les haricots de ce sac sont blancs, ces haricots sur la table sont blancs, donc il est possible qu’ils viennent du sac).
 « Organizational studies should venture out from its adolescence –characterized by observing and explaining natural events in a rather disengaged manner- toward a more mature science that also engages in engineering organizational structures and processes ».
 « Any coherent set of imperative propositions, grounded in the state-of-the-art of organization science, for producing new organizational designs and forms and redeveloping existing ones ».
 Cette description sera reprise de façon détaillée dans la section 4.1.1.
 Quatre autres communes les ont rejointes pour contribuer au projet d’extension du Parc : Villeneuve-Loubet, La Colle-sur-Loup, Opio, Roquefort-les-Pins.
 Comme le soulignent Moreau et Bernasconi, cette vague de créations est le fait d’ingénieurs licenciés qui vont externaliser des technologies et des savoir-faire issus des grands groupes.
 Le laboratoire RODIGE a aujourd’hui fusionné avec un laboratoire d’économie (ex Latapses) et laboratoire de droit (ex Credeco). Ces trois laboratoires ont participé au développement d’un laboratoire fédérateur, le GREDEG (Groupe de recherche en droit, économie et gestion), récemment unité mixte de recherche CNRS – Université de Nice Sophia Antipolis (UMR 6227). Le Rodige reste présent dans cette structure, en tant qu’équipe de recherche en sciences de gestion.
 Le web sémantique se veut être un web dont le contenu peut être appréhendé et exploité par des machines. Ainsi, le web sémantique pourra fournir des services plus aboutis à ses utilisateurs (trouver l'information pertinente, sélectionner, localiser et activer le service nécessaire...). Il peut être vu comme une infrastructure complétant le contenu informel du web actuel avec de la connaissance formalisée [www.lalic.paris4.sorbonne.fr/stic/].
 Les scénarios génériques représentent trois grandes catégories de scénarios d’usage.
 Eurécom est à la fois une école d'ingénieurs et un centre de recherche créé en 1991 à Sophia Antipolis par Télécom Paris (Ecole Nationale Supérieure des Télécommunications) et l'EPFL (Ecole Polytechnique Fédérale de Lausanne)
 Le GET se compose de quatre Grandes Ecoles d’Ingénieur et de Management dans le domaine des Technologies de l’Information et de la Communication : Télécom Paris, (Ecole Nationale Supérieure des Télécommunications-ENST), l’ENST Bretagne, située à Brest et à Rennes,  HYPERLINK "http://www.int-evry.fr/" \n _blankTélécom INT et  HYPERLINK "http://www.int-evry.fr/" \n _blankINT Management, situées à Evry au sein de l’Institut National des Télécommunications. Le groupe développe, parallèlement à l’enseignement, une forte activité de recherche couvrant aussi bien les  HYPERLINK "http://www.get-telecom.fr/index.php?idrub=27&page=recherche_domaines"disciplines fondamentales que leurs applications à des usages spécifiques.
 L'intelligence artificielle et les chercheurs du Web ont adopté ce terme dans leur propre jargon, et pour eux une ontologie est un document ou fichier qui définit de façon formelle les relations entre les termes. Un type d'ontologie caractéristique du Web possédera une taxonomie et un ensemble de règles d'inférence. La taxonomie définit des classes d'objets et les relations entre eux. Par exemple, une adresse peut être définie comme type de lieu, et les codes postaux de ville peuvent être définis pour s'appliquer seulement à des lieux, et ainsi de suite. Les classes, les sous-classes et les relations entre les entités sont un très puissant outil pour utiliser le Web [http://www.urfist.cict.fr/lettres/lettre28/lettre28-22.html#3].
 Tels que présentés de façon synthétique dans la rapport final remis au RNRT en Mai 2005.
 « analytical adequacy indicates the ability of a model, to accurately match or represent the real-world phenomena within the scope of the theory upon which the model is based” [McKelvey, 2003]
 Nous faisons référence ici aux travaux de l’équipe Preactis de St Etienne qui élabore des modèles pour comprendre l’appropriation par les usagers de solutions TIC, en prenant appui notamment sur les apports de la théorie de la structuration.
 Côte d’Azur Développement
 Cette analyse trouve un ancrage majeur dans les travaux de Krafft [2004], Longhi [1999], et dans la réponse du pôle SCS à l’appel à projets pour les pôles de compétitivité et des données collectées dans le cadre du projet KMP.
 Le Centre Intégré de Microélectronique associe des entreprises de la microélectronique de PACA, (grands groupes et PME), des laboratoires de recherche, les universités, les collectivités locales. Il se concrétise par trois plateformes mutualisées de R&D. L’une spécialisée en conception (basée à Sophia Antipolis) ; la seconde sur les technologies de la carte à puce (micropackaging et sécurité) à Gardanne ; la troisième, dédiée à la caractérisation pour l’amélioration des procédés de fabrication de semi-conducteurs (à Rousset). Ce projet labellisé par le CIADT en décembre 2003, est entré dans sa phase active en 2004 avec le lancement des premières actions et la signature des accords juridiques fixant les règles de partenariats. Au total, le projet CIM PACA représente un investissement de 100 millions d’Euros, dont la moitié environ en investissement matériels et logiciels. Le financement se fait à parts égales entre public et privé. Le projet CIM PACA associe notamment STmicroelectronics, ATMEL, Texas Instruments, Gemplus, Philips, de nombreuses PME et 7 partenaires académiques de la recherche et de la formation. Il s’agit de la première grande initiative régionale de travail en commun entre industriels et laboratoires de Sophia Antipolis et de Marseille.
 Le Groupement Européen de Recherche en Informatique et en Mathématiques (ERCIM) est une organisation dédiée à l'avancement de la recherche européenne et au développement des technologies de l'information et des mathématiques appliquées.
 Nous avons qualifié ces scénarios d’usage de scénarios génériques car ils ne prennent pas en compte la pratique et ne sont qu’une première analyse des activités. Par la suite, ces scénarios génériques ont été éclatés en plusieurs sous scénarios d’usage.
 Cette analyse a donné lieu à un article (cf. Rouby et Thomas, 2004)
 La méthodologie des scénarios d’usage que nous avons défini à partir d’un couplage des théories de la cognition distribuée et de la structuration fera l’objet de plus amples développements dans la section § 4.3.2.
 Centre nationaux de recherche technologique de Sophia Antipolis, crée en 2003.
 Cette représentation sera expliquée dans la section 4.4.2.
 C’est-à-dire de pertinence en regard de leurs contextes d’implantation, d’adaptation aux besoins des utilisateurs, d’utilisation ou encore d’adoption par les utilisateurs
 La communauté Interaction Homme-Machine (Human-Computer Interaction, HCI) dont un exemple représentatif est Carroll, 2000 ; Carroll, Rosson, Chin, et Koenemann, 1998, ou encore la communauté Ontologies et Systèmes de gestion de connaissances (Knowledge Management Systems) dont sont issus Grüninger et Fox [1995], Giboin, Gandon, Corby et Dieng, [2002].
 On précisera notamment ses statut, rôle, caractéristiques personnelles, en particulier celles qui sont susceptibles d'impacter ses attentes concernant le contenu et la structure des connaissances cristallisées dans l'outil (formation, expérience).
 Variables données par l’équipe Acacia et déjà expérimentée dans le cadre du projet CoMMA
 Un exemple d’ontologie est proposé en annexe 4 : l’ontologie des télécommunications
 Cooke et Huggins définissent en effet un cluster comme une concentration géographique d’acteurs technologiques unis par des chaînes de valeur économiques, évoluant dans un environnement bénéficiant d’infrastructures de soutien, partageant une stratégie commune et visant à attaquer un même marché.
 Le modèle des compétences défini dans KMP a été construit par E. Rouby et C. Thomas [Rouby et Thomas, 2004].
 “While the activity of retailing toothbrushes is complementary to their manufacture, it is similar to the activity of retailing soap” [Richardson, 1972 : 889-890].
 La définition des concepts de similarité et de complémentarité a été développée par trois chercheurs de l’équipe projet : C. Béhar, C. Thomas et PJ. Barlatier [cf. Thomas et al., 2006].
 Il s’agit de l’ancien Président de TV (2002-2003) devenu vice Président en 2004 et responsable au sein de l’association du projet.
 Quelques exemples d’interfaces du prototype KMP sont proposées dans l’annexe 5.
 L’Innovative Champion Network est une association mondiale qui a pour vocation de comprendre les fondements essentiels pour construire des réseaux performants dans les technologies de l’information et de la communication.







Introduction générale

Amandine Pascal – Conception d’une solution TIC pour favoriser l’émergence de projets innovants : une approche usage
- L’expérience KMP-

Chapitre 1 : de la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage

Amandine Pascal – Conception d’une solution TIC pour favoriser l’émergence de projets innovants : une approche usage
- L’expérience KMP-

Chapitre 1 : de la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage

Amandine Pascal – Conception d’une solution TIC pour favoriser l’émergence de projets innovants : une approche usage
- L’expérience KMP-

Chapitre 2 : Les mécanismes de création de connaissances : le cas des partenariats recherche publique / recherche privée

Amandine Pascal – Conception d’une solution TIC pour favoriser l’émergence de projets innovants : une approche usage
- L’expérience KMP-

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Conception d’une solution TIC pour favoriser l’émergence de projets innovants : une approche usage
- L’expérience KMP-

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 3 : La démarche de co-conception dans une approche orientée usage : le cas KMP

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 4 : Résultats et discussions

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 4 : Résultats et discussions

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Chapitre 4 : Résultats et discussions

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Conclusion générale

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Références bibliographiques

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Annexes

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Annexes

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Annexes

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Liste des tableaux

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Liste des encadrés

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006

Table des matières

Amandine Pascal – Apports des TIC à la création de connaissances dans les partenariats recherche publique / recherche privée : le cas KMP -– 2006


INTRODUCTION GENERALE
Quelles solutions TIC pour favoriser l’émergence de projets innovations entre recherche publique et recherche privée ?

CONCLUSION GENERALE
Apports, limites et perspectives de recherche

CHAPITRE 1
De la diffusion à l’appropriation des solutions TIC : une approche en termes d’usage
Des outils à l’usage : intégrer les approches en sociologie, sciences cognitives et sciences de gestion


CHAPITRE 2
Les pratiques de montage de projets innovants dans les partenariats recherche publique / recherche privée
De l’usage aux pratiques : les pratiques de montage de projets innovants recherche publique / recherche privée


CHAPITRE 3
Une démarche de co-conception dans une approche usage : le cas KMP
Vers une co-évolution des usages et de la conception

CHAPITRE 4
Résultats et discussion
Le cas du cluster télécoms sophipolitain : la co-conception de la solution KMP

?

?

??

Propriétés institutionnelles

Acteurs humains

Technologies

a

b

d

c

??

??

Théorie

Adéquation analytique

Modèle

Phénomènes

Adéquation ontologique


 PAGE 4

 PAGE 3

 PAGE 260

 PAGE 41

 PAGE 102

 PAGE 184

 PAGE 232

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I

 PAGE I