Thèse - LISC
L'examen proposé pour chacune des matières peut inclure des textes, des .... Un
docteur sur deux a également été motivé par le sujet de thèse ; un sur trois par
...... Il existe une corrélation significative (R bp=.52 < 0.5) entre la réussite au test
de ...... P. CARON responsable du 1er cycle Lille 1 « dans une société où tout
doit ...
part of the document
shell than ordinary, whilst the great ocean of truth lay all undiscovered before me. »
Isaac Newton
Remerciements
Je me rends compte maintenant à quel point cette thèse aura été luvre émergente dun travail collectif et au cours des trois années que jy ai consacré, jai bénéficié de linfluence, des lumières et de laide de la part de nombreuses personnes que je me dois de remercier ici.
Je tiens tout dabord à remercier Michel Schneider, pour mêtre venu en aide à de nombreuses reprises, et depuis longtemps, et pour avoir finalement accepté de faire partie de mon jury.
Je tiens également à remercier chaleureusement Alexis Drogoul et Bernard Espinasse davoir accepté, chaque fois, de rapporter cette thèse lorsque je leur ai demandé
à plusieurs occasions, mais toujours dans lurgence. Leur diligence et lattention quils ont portée à ce document mont été dune aide précieuse.
Merci également à Denis Phan pour sa présence dans le jury et les nombreuses interactions enrichissantes que nous avons eues auparavant.
Concernant le document final, partie émergée de liceberg, il aurait sans doute mis beaucoup plus longtemps à être rédigé sans le travail de quelques relecteurs que je me dois de remercier ici : ma sur, Florence, déjà coutumière de lexercice sur plusieurs de mes articles en anglais ; Sophie Martin, pour la chasse systématique à mes fautes de style quelle a conduite ; Franck Varenne, qui ma éclairé de ses lumières pour réaliser une première introduction qui ne figurera finalement pas ici, mais aussi pour les enrichissantes interactions (tout du moins de mon point de vue) qui ont précédé.
Au cours de ces quelques années de thèse et des années qui les ont précédées, jai eu la chance de rencontrer beaucoup de personnes, dont sans doute une partie seulement figurera ici, que les oubliés se consolent en imaginant le remords que jaurais quand je mapercevrais quils ne sont pas mentionnés.
Pour commencer par le commencement (du moins celui de mes recherches), je me dois de remercier tout particulièrement celui qui ma ouvert les portes du monde de la recherche au cours de mon stage de Maîtrise dInformatique puis de mon stage de DEA, Nils Ferrand, sans son enthousiasme communicatif, je naurais sans doute pas poursuivi plus avant.
Les presque six années passées au Cemagref-LISC par la suite sont particulièrement difficiles à décrire sans doute par manque de référend, le seul qui me vienne à lesprit serait labbaye de Thélème de Rabelais, je suis donc particulièrement reconnaissant envers mes compagnons thélèmites qui mont tant apporté : Isabelle Alvarez, Stéphan Bernard (la référence à Rabelais sapplique plutôt bien), Guillaume Deffuant, Nicolas Dumoulin, Margaret Edwards, Thierry Faure, Nils Ferrand, Thierry Fuhs, François Goreaud, Sylvie Huet, Clarisse Mantonnier, Sophie Martin et Lambert Rousseau. Dautres thélèmites avec qui jai eu le plaisir de travailler, Raphaël Duboz, Eric Ramat et Sarah Skerratt sont extérieurs à labbaye mais nen ont pas moins droit de cité.
De nombreuses personnes mont également ouvert les portes de leur laboratoire ou plus simplement de leur bureau et pris le temps de me recevoir et déchanger : François Bousquet, Bruno Corbara, Edmund Chattoe, Jean-Louis Deneubourg, Andreas Flache, Wander Jager, Robert Lifran et Tom Snijders entre autres, quils en soient remerciés ici.
De nombreuses autres mont également aidé à avancer, à mûrir mon projet de recherche et à ouvrir dautres perspectives au cours de différentes écoles dété ou conférences : Paul Bourgine, Olivier Barreteau, Pierre Bommel, Bastien Chopard, Frédéric Deroian, Jean-Benoit Zimmerman, Nigel Gilbert, Vincent Ginot, Luis Izquierdo, Marco Janssen, Fabien Michel, Jacques Ferber, Jean-Pierre Müller, Rémi Munos, Denis Phan, Francis Pisani, Juliette Rouchier, Mamadou Traoré, Diane Vanbergue, Franck Varenne.
Mon travail naurait pas été ce quil est sans le travail de « petites mains », Jérôme Truffot et Nicolas Dumoulin, que jai eu le plaisir dencadrer et la joie de connaître.
Jai également eu le plaisir dêtre « petite main » à mon tour et de bénéficier de lencadrement, des conseils, en bref dêtre sous linfluence de Gérard Weisbuch qui a apporté à cette thèse son expérience et sa « large vue ».
Je me dois de remercier particulièrement David Hill, mon directeur de thèse, dont limpact sur mes recherches et sur ma vie personnelle a largement dépassé le cadre de ses fonctions.
Enfin, je suis particulièrement redevable de lensemble de ces six années de recherche, au père supérieur des thélèmites, Guillaume Deffuant, mon mentor si je ne devais en citer quun, pour mavoir accueilli au LISC, pour avoir encadré mes travaux et bien plus pour mavoir enseigné la « science ».
Ce travail a été financé par le Conseil Régional dAuvergne et le Cemagref.
Trois années de thèse se sont écoulées et mes amis mont supporté tout au long de ce parfois difficile accouchement, je leur dois évidemment beaucoup plus que ce document
A ceux qui mont « fait », qui mont imaginé et construit
ma famille, mes parents et ma sur.
A Magali,
pour tout ce que lon imagine et construit ensemble
Table des matières
TOC \o "1-4" \h \z HYPERLINK \l "_Toc58129701" 1 Introduction PAGEREF _Toc58129701 \h 1
HYPERLINK \l "_Toc58129702" Avant-propos PAGEREF _Toc58129702 \h 1
HYPERLINK \l "_Toc58129703" 1.1 Motivations et enjeux PAGEREF _Toc58129703 \h 1
HYPERLINK \l "_Toc58129704" 1.2 Organisation du document PAGEREF _Toc58129704 \h 2
HYPERLINK \l "_Toc58129705" 2 La simulation sociale individus-centrée PAGEREF _Toc58129705 \h 4
HYPERLINK \l "_Toc58129706" 2.1 La simulation individus-centrée PAGEREF _Toc58129706 \h 4
HYPERLINK \l "_Toc58129707" 2.1.1 La simulation : le modèle plongé dans le temps PAGEREF _Toc58129707 \h 5
HYPERLINK \l "_Toc58129708" 2.1.2 Lapproche individus-centrée PAGEREF _Toc58129708 \h 5
HYPERLINK \l "_Toc58129709" 2.1.3 Finalités de lapproche PAGEREF _Toc58129709 \h 6
HYPERLINK \l "_Toc58129710" 2.1.4 Intérêts et difficultés PAGEREF _Toc58129710 \h 7
HYPERLINK \l "_Toc58129711" 2.1.5 Individus, agents, objets
un peu de terminologie PAGEREF _Toc58129711 \h 8
HYPERLINK \l "_Toc58129712" 2.1.6 Définition formelle de modèles individus-centrés pour la simulation sociale PAGEREF _Toc58129712 \h 9
HYPERLINK \l "_Toc58129713" 2.1.7 Différentes approches individus-centrées PAGEREF _Toc58129713 \h 12
HYPERLINK \l "_Toc58129714" 2.1.7.1 La microsimulation PAGEREF _Toc58129714 \h 12
HYPERLINK \l "_Toc58129715" 2.1.7.2 La théorie des jeux PAGEREF _Toc58129715 \h 13
HYPERLINK \l "_Toc58129716" 2.1.7.3 Les automates cellulaires PAGEREF _Toc58129716 \h 13
HYPERLINK \l "_Toc58129717" 2.1.7.4 Simulations orientées-objet et simulations multi-agents PAGEREF _Toc58129717 \h 15
HYPERLINK \l "_Toc58129718" 2.2 Simulations individus-centrées de linfluence sociale PAGEREF _Toc58129718 \h 16
HYPERLINK \l "_Toc58129719" 2.2.1 Le temps PAGEREF _Toc58129719 \h 17
HYPERLINK \l "_Toc58129720" 2.2.1.1 La représentation du temps PAGEREF _Toc58129720 \h 17
HYPERLINK \l "_Toc58129721" 2.2.1.2 La gestion du temps PAGEREF _Toc58129721 \h 17
HYPERLINK \l "_Toc58129722" 2.2.2 Lindividu PAGEREF _Toc58129722 \h 19
HYPERLINK \l "_Toc58129723" 2.2.2.1 Les attributs de lindividu PAGEREF _Toc58129723 \h 19
HYPERLINK \l "_Toc58129724" 2.2.2.2 Cardinalité de linfluence PAGEREF _Toc58129724 \h 20
HYPERLINK \l "_Toc58129725" 2.2.2.3 Transmission entre individus PAGEREF _Toc58129725 \h 21
HYPERLINK \l "_Toc58129726" 2.2.2.4 Processus décisionnel PAGEREF _Toc58129726 \h 22
HYPERLINK \l "_Toc58129727" 2.2.3 Le réseau social (lorganisation) PAGEREF _Toc58129727 \h 26
HYPERLINK \l "_Toc58129728" 2.2.3.1 Réseau social construit à partir dun espace social PAGEREF _Toc58129728 \h 26
HYPERLINK \l "_Toc58129729" 2.2.3.2 La structure sociale comme graphe indépendant PAGEREF _Toc58129729 \h 28
HYPERLINK \l "_Toc58129730" 2.2.4 Lenvironnement PAGEREF _Toc58129730 \h 31
HYPERLINK \l "_Toc58129731" 2.2.5 Facteurs exogènes au modèle PAGEREF _Toc58129731 \h 31
HYPERLINK \l "_Toc58129732" 2.3 Conclusion PAGEREF _Toc58129732 \h 32
HYPERLINK \l "_Toc58129733" 3 Méthodes pour une meilleure compréhension des modèles PAGEREF _Toc58129733 \h 33
HYPERLINK \l "_Toc58129734" 3.1 Introduction PAGEREF _Toc58129734 \h 33
HYPERLINK \l "_Toc58129735" Organisation de cette partie PAGEREF _Toc58129735 \h 35
HYPERLINK \l "_Toc58129736" 3.2 Compréhension du fonctionnement dun modèle par lexpérimentation PAGEREF _Toc58129736 \h 36
HYPERLINK \l "_Toc58129737" 3.2.1 La simulation : du modèle à lexpérience virtuelle PAGEREF _Toc58129737 \h 36
HYPERLINK \l "_Toc58129738" 3.2.2 Différents points de vue sur lobjet dexpérimentation PAGEREF _Toc58129738 \h 37
HYPERLINK \l "_Toc58129739" 3.2.3 Observer et mesurer lindividu dans la simulation PAGEREF _Toc58129739 \h 39
HYPERLINK \l "_Toc58129740" 3.2.4 Observer la population dans la simulation PAGEREF _Toc58129740 \h 41
HYPERLINK \l "_Toc58129741" 3.2.4.1 La population : une somme dindividus PAGEREF _Toc58129741 \h 41
HYPERLINK \l "_Toc58129742" 3.2.4.2 Observation de lévolution de la population comme un phénomène collectif PAGEREF _Toc58129742 \h 41
HYPERLINK \l "_Toc58129743" 3.2.5 Observer les autres éléments dans le modèle (G,E) PAGEREF _Toc58129743 \h 42
HYPERLINK \l "_Toc58129744" 3.2.5.1 Mesurer lenvironnement PAGEREF _Toc58129744 \h 42
HYPERLINK \l "_Toc58129745" 3.2.5.2 Mesurer le graphe dinteractions PAGEREF _Toc58129745 \h 42
HYPERLINK \l "_Toc58129746" 3.2.6 Observer les couplages au sein du modèle PAGEREF _Toc58129746 \h 43
HYPERLINK \l "_Toc58129747" 3.2.7 Caractériser le comportement dune simulation PAGEREF _Toc58129747 \h 44
HYPERLINK \l "_Toc58129748" 3.2.8 Observer une population de simulations PAGEREF _Toc58129748 \h 44
HYPERLINK \l "_Toc58129749" 3.2.9 Articulation et navigabilité entre les différents points de vue PAGEREF _Toc58129749 \h 47
HYPERLINK \l "_Toc58129750" 3.2.10 Vers une gestion de lexploration systématique PAGEREF _Toc58129750 \h 48
HYPERLINK \l "_Toc58129751" 3.2.10.1 Solution mono-poste PAGEREF _Toc58129751 \h 48
HYPERLINK \l "_Toc58129752" 3.2.10.2 Distribution des expériences sur une ferme de calcul PAGEREF _Toc58129752 \h 48
HYPERLINK \l "_Toc58129753" 3.2.10.3 Vers une automatisation de lensemble du procédé : SimExplorer PAGEREF _Toc58129753 \h 49
HYPERLINK \l "_Toc58129754" 3.2.10.4 Bilan de lapproche proposée PAGEREF _Toc58129754 \h 58
HYPERLINK \l "_Toc58129755" 3.3 Multi-modélisation pour la compréhension dun modèle PAGEREF _Toc58129755 \h 58
HYPERLINK \l "_Toc58129756" 3.3.1 Jouer sur la complexité des modèles PAGEREF _Toc58129756 \h 58
HYPERLINK \l "_Toc58129757" 3.3.1.1 Décomposition des modèles sociaux PAGEREF _Toc58129757 \h 59
HYPERLINK \l "_Toc58129758" 3.3.1.2 Modèles généraux, modèles spécifiques et collections de modèles PAGEREF _Toc58129758 \h 60
HYPERLINK \l "_Toc58129759" 3.3.1.3 Couplage de lapproche Vowels et de labstraction décroissante PAGEREF _Toc58129759 \h 61
HYPERLINK \l "_Toc58129760" 3.3.1.4 DAMMASS PAGEREF _Toc58129760 \h 61
HYPERLINK \l "_Toc58129761" 3.3.1.5 Bilan de lapproche proposée PAGEREF _Toc58129761 \h 64
HYPERLINK \l "_Toc58129762" 3.3.2 Jouer sur le formalisme utilisé PAGEREF _Toc58129762 \h 64
HYPERLINK \l "_Toc58129763" 3.4 Conclusion PAGEREF _Toc58129763 \h 64
HYPERLINK \l "_Toc58129764" 4 La modélisation des dynamiques dopinions PAGEREF _Toc58129764 \h 66
HYPERLINK \l "_Toc58129765" 4.1 Introduction PAGEREF _Toc58129765 \h 66
HYPERLINK \l "_Toc58129766" 4.2 Modèle dinfluence bornée PAGEREF _Toc58129766 \h 67
HYPERLINK \l "_Toc58129767" 4.2.1 Le modèle PAGEREF _Toc58129767 \h 67
HYPERLINK \l "_Toc58129768" 4.2.2 Influence de lincertitude u PAGEREF _Toc58129768 \h 68
HYPERLINK \l "_Toc58129769" 4.2.3 Extensions du modèle BC PAGEREF _Toc58129769 \h 71
HYPERLINK \l "_Toc58129770" 4.3 Modèle dinfluence proportionnelle à laccord relatif PAGEREF _Toc58129770 \h 72
HYPERLINK \l "_Toc58129771" 4.3.1 Le modèle daccord relatif PAGEREF _Toc58129771 \h 72
HYPERLINK \l "_Toc58129772" 4.3.2 Cas dune population homogène en incertitude PAGEREF _Toc58129772 \h 74
HYPERLINK \l "_Toc58129773" 4.4 Introduction dextrémistes dans le modèle daccord relatif PAGEREF _Toc58129773 \h 76
HYPERLINK \l "_Toc58129774" 4.4.1 Introduction des extrémistes PAGEREF _Toc58129774 \h 76
HYPERLINK \l "_Toc58129775" 4.4.2 Les attracteurs : bipolarisation ou polarisation unique PAGEREF _Toc58129775 \h 76
HYPERLINK \l "_Toc58129776" 4.4.3 Résultats généraux PAGEREF _Toc58129776 \h 79
HYPERLINK \l "_Toc58129777" 4.4.3.1 Indicateur de type de convergence PAGEREF _Toc58129777 \h 79
HYPERLINK \l "_Toc58129778" 4.4.3.2 Formes typiques de y PAGEREF _Toc58129778 \h 79
HYPERLINK \l "_Toc58129779" 4.4.4 Comparaison avec le comportement du modèle précédent PAGEREF _Toc58129779 \h 82
HYPERLINK \l "_Toc58129780" 4.4.5 Bilan de lexploration avec extrémistes PAGEREF _Toc58129780 \h 84
HYPERLINK \l "_Toc58129781" 4.5 Introduction dun réseau social dans le modèle daccord relatif PAGEREF _Toc58129781 \h 85
HYPERLINK \l "_Toc58129782" 4.5.1 Voisinage de Von Neumann sur grille PAGEREF _Toc58129782 \h 85
HYPERLINK \l "_Toc58129783" 4.5.2 Voisinage de Moore sur une grille PAGEREF _Toc58129783 \h 88
HYPERLINK \l "_Toc58129784" 4.5.3 Exploration sur des small-worlds PAGEREF _Toc58129784 \h 89
HYPERLINK \l "_Toc58129785" 4.5.3.1 Le modèle de Small-World PAGEREF _Toc58129785 \h 89
HYPERLINK \l "_Toc58129786" 4.5.3.2 Leffet réseau pour un point particulier de lespace des paramètres PAGEREF _Toc58129786 \h 90
HYPERLINK \l "_Toc58129787" 4.5.3.3 Influence du réseau pour dautres valeurs de lincertitude PAGEREF _Toc58129787 \h 91
HYPERLINK \l "_Toc58129788" 4.6 Conclusion PAGEREF _Toc58129788 \h 93
HYPERLINK \l "_Toc58129789" 5 Bilan et perspectives PAGEREF _Toc58129789 \h 95
HYPERLINK \l "_Toc58129790" 5.1 Bilan de la contribution PAGEREF _Toc58129790 \h 95
HYPERLINK \l "_Toc58129791" 5.2 Limitations et perspectives PAGEREF _Toc58129791 \h 97
HYPERLINK \l "_Toc58129792" Bibliographie PAGEREF _Toc58129792 \h 98
Résumé
Par lutilisation de lapproche individus-centrée, en particulier pour la modélisation de systèmes sociaux, le modélisateur est souvent confronté au sein même de son modèle, à une des complexités majeures du système réel quil cherche à comprendre, à savoir la relation entre comportements individuels et comportements collectifs, qui présente dans le système réel se retrouve, par cette approche, présente également dans son modèle. Dès lors il se retrouve face à un modèle dont il ne peut que difficilement comprendre le fonctionnement même sil en connaît les règles de fonctionnement au niveau individuel. Nous proposons ici le recours à une démarche expérimentale pour la compréhension de modèles de simulation sociale individus-centrés. De manière à cerner lobjet de cette démarche, nous exposons tout dabord un cadre formel pour lexpression de modèles individus-centrés, qui nous permettra denglober plusieurs grands types de modèles (automates cellulaires, microsimulation, simulation multi-agents notamment). Nous présenterons ensuite les modèles individus-centrés de linfluence sociale rencontrés dans la littérature en utilisant ce formalisme comme grille de lecture pour tenter de représenter le spectre des comportements possibles que lon peut introduire dans le modèle.
Dans une deuxième partie, nous nous intéresserons à la démarche expérimentale comme accompagnement pour la compréhension du modèle. Nous présenterons tout dabord les différents points de vue sur le modèle que peut prendre le modélisateur (individuel, collectif, population de simulations notamment) et nous argumenterons sur la nécessaire complémentarité entre ces points de vue dans le but de comprendre le fonctionnement du modèle. Nous proposerons ensuite un environnement dédié à la gestion des plans dexpérience sur des modèles de simulation destiné à accompagner lexploration systématique de lespace des paramètres dun modèle. Nous présenterons enfin une méthodologie incrémentale de construction des modèles pour nous permettre dobtenir une compréhension construite et croissante du fonctionnement de modèles complexes envisagés comme une collection de modèles de complexité croissante.
Dans une dernière partie, nous mettrons en pratique les éléments abordés précédemment en présentant une série de modèles de dynamiques dopinions dont la compréhension est enrichie en étudiant tout dabord des modèles très simples puis en complexifiant progressivement les modèles étudiés. Nous aborderons ainsi successivement un modèle dinteraction conditionnel en population homogène, nous ferons ensuite évoluer la dynamique des agents de ce modèle, puis nous introduirons de lhétérogénéité dans le modèle pour finir par étudier son comportement lorsque lon introduit un réseau social.
Abstract
Using an individual-based approach, particularly for the modelling of social systems, the modeller often faces a major source of complexity within his model. The relation between individual behaviours and collective ones is a source of complexity present in the real world that is reproduced within individual-based models. Then he faces a model which functioning is difficult to understand even if he knows the rules of functioning at the individual level. We propose here the use of an experimental approach to understand individual-based social simulation models. With the aim to encircle the subject of this approach, the model, we first expose a formal framework to express individual-based models. This framework will enable us to include several types of individual-based models, namely cellular automata, microsimulation or multi-agent simulation. We will then present individual-based models of social influence of the literature, using this framework as a guideline, with the aim to represent the broad range of possible behaviours we can introduce within the model.
In a second part, we will focus to the experimental approach as a mean to understand the behaviour of model. We will first present the different viewpoints on the individual-based model that the modeller can adopt (individual, collective, simulations population among others) and we will argue about the necessary complementarity between those viewpoints with the aim to understand the functioning of the model. We will propose thereafter a software environment dedicated to the management of experimental designs on simulation models. This latter will help the systematic exploration of the parameters space of a model. We will present then an incremental methodology for building models to enable us to obtain a progressive understanding of the functioning of complex models seen as a collection of models of increasing complexity.
In the last part, we will apply the exposed elements presenting a set of models of opinion dynamics whose understanding is enrich by studying first very simple models and then complexifying progressively the studied models. We will then present successively a model of conditional interaction with a homogeneous population. We will make evolve the interaction process in a second model and then we will explore this latter introducing heterogeneity in the population and a social network constraining the interactions.
« Sur lavenir tout le monde se trompe. Lhomme ne peut être sûr que du moment présent. Mais est-ce bien vrai ? Peut-il vraiment le connaître, le présent ? Est-il capable de le juger ? Bien sûr que non. Car comment celui qui ne connaît pas lavenir pourrait-il comprendre le sens du présent ? Si nous ne savons pas vers quel avenir le présent nous mène, comment pourrions-nous dire que ce présent est bon ou mauvais, quil mérite notre adhésion, notre méfiance ou notre haine ? »
Milan Kundera, Lignorance.
Introduction
Avant-propos
Pour la compréhension du fonctionnement de systèmes complexes naturels ou sociaux, les scientifiques ont de plus en plus souvent recours à la modélisation. Cependant, il arrive fréquemment que le modèle réalisé soit suffisamment complexe pour nêtre pas intelligible au premier abord.
Le travail présenté dans ce mémoire concerne la compréhension du comportement ou du fonctionnement de modèles de simulations sociales individus-centrés. Dans ce cadre, nous nous concentrerons plus particulièrement sur des modèles de dynamiques dopinions dans une population. Cependant, si un des buts premiers de ce travail est bien de comprendre le fonctionnement des modèles pris en exemple, il sagit également de proposer des méthodes et des techniques dexploration de modèles plus génériques pouvant sappliquer à dautres modèles et éventuellement à dautres domaines.
Nous allons présenter dans cette introduction les enjeux et la motivation de ce travail, sa relation avec les différents domaines de recherche abordés et lorganisation du document qui en découle.
Motivations et enjeux
Au cours des quinze dernières années, la diffusion de la méthode des modèles (Legay, 1973 ; 1997 ; Schmidt-Lainé et Pavé, 2002 ; Varenne, 2003) pour une meilleure compréhension du fonctionnement des systèmes complexes (Atlan, 1979) dans de nombreux domaines a induit de fait la diffusion de la simulation et particulièrement de la simulation individus-centrée, en particulier en écologie (Reynolds, 1987 ; De Angelis et Gross, 1992 ; Grimm, 1999) et en sciences sociales (Gilbert et Troitzsch, 1999). Dans ces deux domaines, le simple fait de pouvoir réaliser des hypothèses sur le comportement des entités du système modélisé et les prendre en compte explicitement dans les modèles réalisés peut être envisagé comme un changement de paradigme (Kuhn, 1962), puisquil consiste en un nouveau point de vue du modélisateur sur les systèmes modélisés et quil a conduit à lélaboration de nouveaux outils et de nouvelles méthodes pour supporter ce nouveau paradigme.
Cependant, le fait de construire des modèles individus-centrés repose la question du statut du modèle. En effet, si les modèles individus-centrés restent des modèles, des instruments destinés à améliorer la compréhension dun système (Legay, 1973), ils entrent également en résonance avec la définition de la complexité quen donne Von Neumann (Von Neumann et Burks, 1966), à savoir que lensemble des comportements possibles du système considéré (en loccurrence le modèle individus-centré) est infiniment plus difficile à caractériser que ses règles de fonctionnement. Dans le cas du modèle individus-centré, ces dernières sont explicitées formellement dans le programme de simulation. Cette complexité inhérente à la méthode de modélisation ne provient pas dune éventuelle et très probable stochasticité de ce type de modèles mais bien plutôt du jeu intime des interactions entre les entités qui produisent un phénomène agrégé qui nest pas spécifié explicitement dans le modèle. Ce dernier point peut être mis en regard de certaines définitions de lémergence de phénomènes collectifs dans les simulations individus-centrées (Gilbert, 1995 ; MRJean, 1997).
Confronté à ce modèle quil a construit et dont il ne peut pourtant appréhender complètement le comportement, le modélisateur se retrouve partiellement dans la situation de lexpérimentateur des sciences du vivant (Dupuy, 1994). Partiellement, puisque malgré tout, il reste lauteur du modèle et quà ce titre il en connaît les règles de fonctionnement, cest-à-dire une formalisation de ce système : « cest écrit ». Cependant, souvent incapable den obtenir une forme qui soit solvable analytiquement, il ne peut extraire de sa simulation aucune loi universelle qui pourrait lui faire obtenir une compréhension totale du comportement de son modèle. Il se retrouve donc bien dans le cadre des sciences expérimentales (Popper, 1972) et doit donc souvent se contenter détablir son raisonnement, la compréhension de son modèle, sur la base de simulations, dexpériences, réalisées sur celui-ci.
Nous proposons donc dans ce document de nous détacher du lien entre le modèle et le système représenté pour nous intéresser à la compréhension de cet objet, le modèle individus-centré, construit par le modélisateur et dont le comportement lui reste pourtant partiellement obscur. Nous nous focaliserons en particulier sur les méthodes à mettre en uvre pour la compréhension spécifique de modèles individus-centrés pour la simulation sociale.
Une fois spécifié le type de modèles pris en compte, le premier type de méthodes sappuie directement sur la relation entre le scientifique modélisateur et cet objet quil ne parvient pas à appréhender. Il sagit dune application des méthodes classiques, relatives à lexpérimentation, appliquées à une construction numérique, le modèle de simulation (Kleijnen, 1987) pour déboucher sur ce qui est parfois appelé lexpérimentation virtuelle (Colonna et Farge, 1987) qui présente les énormes avantages suivants par rapport aux sujets dexpérimentation naturels :
- Elle est reproductible à lidentique, puisque formalisée dans un langage non-ambigu qui permet dune part de le répliquer ou le reprogrammer et dautre part de reproduire exactement les mêmes expériences de simulation. Le modèle de simulation, lorsque lon contrôle le générateur de nombres pseudo-aléatoires, est un système déterministe.
- Elle est totalement ouverte à la mesure, puisque chaque variable, chaque paramètre du modèle peut être mesuré à quelque instant que ce soit au cours de lexpérience.
- Elle nest pas sensible à la mesure, au sens où la mesure nest pas une méthode invasive dans ce cadre et ne produit pas de changement de comportement du modèle.
Le deuxième type de méthodes est centré sur la construction du modèle et propose lapplication de méthodes provenant entre autres du génie logiciel (Demazeau, 1995 ; Gamma et al., 1995 ; Fishwick, 1995) pour permettre la navigabilité entre modèles de structures similaires ou proches mais ayant des complexités différentes, des hypothèses formulées différentes ou utilisant des formalismes différents. La connaissance qui est alors acquise concernant le fonctionnement de certains modèles permet déclairer létude du comportement dun modèle proche. Dans ce cadre nous proposerons une application de la méthodologie dabstraction décroissante (Lindenberg, 1992).
Notre objet dapplication, une collection de modèles de dynamiques dopinions, fera ainsi lobjet de lapplication de ces différentes techniques et méthodes, ainsi que dautres plus spécifiques à ces modèles particuliers, pour comprendre leur fonctionnement propre mais également les raisons de leurs différences de comportement.
Organisation du document
Ce manuscrit est divisé en trois parties, chaque partie sera supportée par la précédente et nous tendrons au fur et à mesure vers le cas particulier représenté par notre cas dapplication.
Ainsi, la première partie sera consacrée à un état de lart de la simulation sociale individus-centrée. Son but est de comprendre les caractéristiques générales reposant sur la construction de ces modèles. Nous exposerons donc dans ce cadre un méta-modèle qui nous servira de grille de lecture pour létat de lart consacré à la modélisation de linfluence sociale et à la modélisation de dynamiques dopinions pour contextualiser le travail mené autour de la collection de modèles de dynamiques dopinions réalisée. Ce méta-modèle nous permettra également didentifier clairement les différents éléments qui peuvent composer une simulation individus-centrée dun système social pour savoir plus exactement à quels grands types dobjets doivent sappliquer les outils et méthodes développés pour la compréhension de ces modèles.
La deuxième partie sera consacrée à lexposé de notre double approche pour la compréhension du fonctionnement de modèles individus-centrés. Nous exposerons dune part lapplication dune méthode de construction et dexploration incrémentale des modèles (Amblard et al., 2001), la connaissance obtenue par exploration du comportement de modèles plus simples servant de base à lexploration de modèles plus complexes. Cette méthode nest cependant pas univoque puisque nous proposerons des pistes méthodologiques pour la réalisation et lexploration de modèles simplifiés conduisant à la réalisation de collections de modèles. Dans ce cadre, la connaissance sur les modèles est envisagée comme complémentaire dun modèle par rapport à lautre, dans le sens de complexité croissante parce que la connaissance du comportement dun modèle simple peut servir de base à la connaissance dun modèle plus complexe, mais également dans le sens de complexité décroissante puisque lexploration sur un modèle simple de propriétés existantes sur un modèle complexe permet de vérifier la généricité de ces propriétés. Dautre part, nous aborderons lapplication de méthodes expérimentales dans ce cadre en distinguant différents points de vue complémentaires sur le modèle de simulation. Dans un premier temps nous aborderons ainsi lanalyse qui peut être réalisée sur une expérience, une simulation donnée, soit en choisissant une focalisation sur un individu de la simulation, soit en choisissant une focalisation sur un comportement global, collectif, des entités. Ensuite, nous aborderons lanalyse qui peut être réalisée sur un ensemble de simulations organisé de manière plus systématique suivant un plan dexpérience. Dans ce cadre, nous proposerons un environnement logiciel, SimExplorer, permettant dencadrer ce travail dexploration systématique de manière générique. Nous aborderons finalement la complémentarité de ces deux types danalyse et le nécessaire aller-retour à mettre en place entre ceux-ci pour une bonne compréhension du fonctionnement du modèle.
Enfin, nous présenterons une application de ces outils et méthodes à la compréhension dune collection de modèles particuliers. Ces simulations individus-centrées ont pour objet la modélisation de dynamiques dopinions dans une population sous différentes conditions et avec différentes hypothèses.
« Récemment, alors que je marchais dans Paris, dans une rue insignifiante dun quartier insignifiant, je suis tombé sur une femme de Hambourg que je voyais presque tous les jours il y a vingt-cinq ans, et quensuite javais complètement perdu de vue. Je suivais cette rue-là parce que, par erreur, jétais descendu du métro une station avant la mienne. Quant à la femme, elle était venue passer trois jours à Paris et sétait égarée. Il y avait une probabilité de un sur un milliard pour que nous nous rencontrions !
-Quelle méthode adoptes-tu, pour calculer la probabilité des rencontres humaines ? [
] Que peut-on dire de sérieux sur les hasards de la vie, sans une recherche mathématique ? Seulement voilà, il ny a pas de mathématique existentielle. [
]
-De toute façon, quelle ait eu une chance sur un million ou sur un billion de se produire, la rencontre était parfaitement improbable, et cette improbabilitié même fait tout son prix. Car la mathématique existentielle, qui nexiste pas, poserait à peu près cette équation : la valeur dun hasard est égale à son degré dimprobabilité. »
Milan Kundera, Limmortalité.
La simulation sociale individus-centrée
Notre travail concerne la compréhension du fonctionnement de modèles individus-centrés pour létude de phénomènes sociaux et plus particulièrement les phénomènes dinfluence sociale et de dynamique des opinions au sein dune population. Afin de clarifier lobjet dapplication de notre étude dun point de vue méthodologique et afin également de situer la collection de modèles réalisée nous allons, dans cette partie, présenter un état de lart des modèles de simulation sociale individus-centrés. Cet état de lart sattachera volontairement à la présentation de la structure des modèles de manière à identifier les points saillants qui peuvent faire lobjet dune pratique expérimentale par la suite.
De manière à entrer progressivement dans cette problématique, nous allons présenter ce que sont, dans notre perspective, la modélisation et la simulation. Ensuite, de manière à nous positionner davantage au sein de cette communauté, nous démontrerons lintérêt dadopter une approche individus-centrée de manière générale puis dans le cadre de la modélisation de systèmes sociaux. Nous aborderons également les problèmes inhérents à cette approche. Et nous proposerons un méta-modèle destiné dune part à identifier les composants principaux dune approche individus-centrée et qui nous servira dautre part de grille de lecture pour distinguer les différents modèles présentés.
Dans la partie suivante, nous présenterons différentes approches que nous pourrons qualifier dindividus-centrées en abordant successivement les domaines de la microsimulation, des automates cellulaires, de la théorie des jeux, puis des approches issues de linformatique : la simulation orientée-objet et lapproche multi-agents en les exprimant dans le cadre du méta-modèle présenté.
Nous aborderons finalement les modèles de simulations individus-centrées dédiés à linfluence sociale et à la dynamique des opinions, en utilisant, comme grille de lecture, le méta-modèle introduit auparavant. Nous distinguerons ainsi cinq éléments principaux qui nous permettrons de discriminer les différentes approches : la représentation du temps et son implémentation, les agents ou les individus, le réseau social ou la manière dont sont organisés les individus au sein de ces modèles, la représentation de lenvironnement et enfin les éléments exogènes dans ces modèles.
La simulation individus-centrée
La modélisation en général et la simulation en particulier font de plus en plus souvent partie des pratiques scientifiques courantes dans la plupart des domaines (Legay, 1973 ; 1997 ; Schmidt-Lainé et Pavé, 2002). Quel que soit le système modélisé, le modèle se définit essentiellement par rapport à deux points. Il se définit tout dabord par rapport à son objet détude, le système que lon souhaite étudier et modéliser. Et il se définit également par la question à laquelle on souhaite répondre au sujet de ce système ou le problème que lon souhaite résoudre en le modélisant. La détermination du système étudié, ainsi que la question de modélisation associée permettent ainsi de réaliser la clôture du modèle et de guider le modélisateur dans les hypothèses simplificatrices à émettre sur le système réel pour en construire un modèle (le choix de la granularité par exemple).
De manière canonique un système peut être défini comme un ensemble dentités en interactions (von Bertalanfy, 1968). Le recours à la modélisation comme construction dune représentation simplifiée dun système quel quil soit, est souvent justifié par la complexité de ce dernier que lon ne peut a priori pas entièrement saisir sans passer par une simplification de celui-ci.
La simulation : le modèle plongé dans le temps
Parmi les types de modélisation les plus couramment utilisés et qui nous intéressent au premier plan ici, la simulation consiste à faire évoluer dans le « temps » labstraction dun système : son modèle (Coquillard et Hill, 1997). La question de la représentation du temps et de sa gestion au sein des simulations en devient dès lors un point crucial. On distingue ainsi souvent les différents types de simulation par la manière dont ils représentent et gèrent celui-ci. Les simulations à représentation du temps continue sont définies par le fait quà chaque instant t réel on peut associer un état particulier du modèle. Cest le cas par exemple de nombreux modèles de croissance végétale. Dans les simulations à représentation du temps discret, au contraire le temps est discrétisé, le pas de discrétisation étant constant ou non. La fonction représentant lévolution de létat du modèle dans le temps est, dans ce dernier cas, constante par morceaux. Un type de gestion du temps particulier est implémenté dans les simulations à évènements discrets. On sintéresse alors aux évènements qui vont conduire à un changement détat du système (Zeigler, 1976 ; Zeigler et al., 2000). Par ce type dapproche il est dès lors possible de réaliser des simulations dont la représentation du temps est continue ou discrète. Enfin, il est important de souligner que la temporalité incluse dans les simulations, même si elle peut être rapprochée dune représentation du temps discrète, relâche souvent le problème de la représentation de la durée des évènements et ne peut dès lors être mise en rapport avec des échelles de temps réelles. Cest souvent le cas en simulation sociale ou en physique statistique, domaines dans lesquels les temporalités dinteractions entre les individus ou les entités sont peu connues ou sur lesquelles on ne veut a priori pas émettre dhypothèses. On perd ainsi la notion de temporalité stricto sensu tout en conservant une relation dordre temporelle entre les changements détats du système, qui permet, à défaut, de dater artificiellement létat dun système ou au moins de représenter son antériorité ou sa postériorité par rapport à un autre. Cette question de la représentation du temps et de sa gestion dans les simulations sera abordée plus en détail dans la partie consacrée aux modèles de dynamiques dopinions.
En plus des buts multiples exposés, les travaux concernant la modélisation de systèmes sociaux sattachent également à de nombreux courants qui proviennent dapproches méthodologiques et dorigines disciplinaires relativement diverses. Parmi celles-ci, lapproche individus-centrée est présente dans de nombreuses communautés, en particulier en écologie (Reynolds, 1987 ; De Angelis et Gross, 1992 ; Grimm, 1999 ; Hill, 2000) et continue de sétendre à plusieurs autres. Nous allons donc présenter cette approche, en la définissant tout dabord assez sommairement puis en justifiant ses intérêts, avant de présenter plusieurs instances de cette approche dans différents domaines, appliquées à la modélisation de phénomènes sociaux.
Lapproche individus-centrée
Lapproche individus-centrée pour la modélisation dun système consiste à représenter explicitement dans le modèle les individus ou les entités qui composent la population considérée, que le système soit écologique, social ou économique. Cette focalisation à un niveau que nous pouvons qualifier de microscopique (par opposition à une vision globale ou agrégée du système, typiquement des comportements collectifs, que nous qualifierons de macroscopique) vise à la production dun modèle de ces entités, de leur environnement, et de leurs interactions entre elles ou avec lenvironnement. Une fois les modèles de ces entités réalisés, il sagira de mettre ces modèles en relation et de simuler leur comportement collectif. La compréhension du fonctionnement de tels modèles pourra alors être envisagée à deux niveaux : au niveau microscopique par la compréhension du fonctionnement des dynamiques individuelles et au niveau macroscopique par lobservation du comportement collectif résultant de la mise en interaction des modèles de ces entités et éventuellement par comparaison avec des données agrégées collectées, des observations ou des attentes du modélisateur.
Un des enjeux principaux des modèles de phénomènes sociaux est de clarifier (ou du moins de prendre explicitement en compte) le lien qui existe entre les phénomènes sociaux envisagés au niveau de la société dans son ensemble, au niveau collectif ou global, et les phénomènes locaux, envisagés au niveau de lindividu. Plus particulièrement il consiste à étudier, souvent dans un but explicatif, le passage des dynamiques individuelles à des dynamiques globales par le jeu complexe des interactions entre individus. Conte et Castelfranchi (1992) distinguent ainsi conceptuellement deux approches classiques qui sappliquent à la modélisation des phénomènes sociaux :
- Lapproche top-down, pour laquelle en partant de situations macroscopiques, on dérive des phénomènes microscopiques, des buts ou des motivations individuelles.
- Lapproche bottom-up pour laquelle, au contraire, on pose des hypothèses sur le comportement des individus, sur leurs motivations ou leurs modalités dinteractions. Lobservation de leur comportement collectif est alors comparée aux phénomènes macroscopiques observés dans le système modélisé (ou aux attentes du modélisateur) pour discuter les hypothèses réalisées au niveau microscopique (Epstein et Axtell, 1996).
Lapproche bottom-up est ainsi caractéristique de la plupart des approches individus-centrées qui proposent des modèles individuels pour lexplication ou la caractérisation de comportements collectifs observés. Ainsi, conformément à lapproche hypothético-déductive classique, on réalise des hypothèses sur les comportements individuels à partir dobservations globales puis on vérifie que lon obtient bien les dynamiques globales correspondantes.
Finalités de lapproche
Si nous considérons les buts et les intérêts de lapplication de la simulation individus-centrée aux phénomènes sociaux, si leur finalité première est « basiquement » de produire de la connaissance (Axelrod, 1997), nous pouvons référencer de nombreux autres intérêts à leur utilisation si nous nous intéressons particulièrement aux systèmes sociaux (il faut cependant noter que les utilisations listées ne sont pas nécessairement spécifiques aux approches individus-centrées) :
- La formalisation de théories sociales par des programmes informatiques (Troitzsch, 1997) est envisagée comme alternative à la formalisation discursive ou la formalisation mathématique et repose sur linambiguïté dun code source et son expressivité plus importante que celle dune formalisation mathématique.
- La vérification de théories sociales ou le test dhypothèses où lon cherche à formaliser dans un langage informatique une théorie sociale souvent discursive (Mosler, 2002 ; Hummon et Doreian, 2003). Limplémentation résultante - le programme de la simulation - permet de discuter la théorie en question en confrontant les résultats de simulation aux attentes exprimées dans lénoncé de la théorie.
- La simulation prédictive pour laide à la décision (Gilbert et Troitzsch, 1999). La simulation du système social réalisée permet alors de projeter dans le temps les hypothèses de modélisation réalisées plutôt que de réaliser de véritables prédictions sur le système. On extrapole ainsi en quelque sorte les connaissances actuelles que lon a dun système pour éclairer les décisions à prendre pour la gestion actuelle ou future de ce système.
- Le test de scénarios par la simulation (Gilbert et Troitzsch, 1999) est utilisé notamment dans le cadre de laide à la décision pour évaluer au vu du comportement du modèle simulé, des scénarios prospectifs de type « what-if » (Deffuant et al., 2002b).
- Le jeu ou lentraînement (SimCity édité par Maxis, Age of the Empire édité par Microsoft ou le 3ème Millénaire par Cryo) qui permettent à lutilisateur placé dans un monde virtuel de tester, de manipuler le modèle de simulation à des fins dapprentissage ou à des fins ludiques, voire les deux, comme dans le cadre présenté par Dumoulin (2002) où le jeu réalisé permet au joueur dappréhender les enjeux de la coopération chez les vampires.
- Lutilisation de modèles comme artefacts pour laide à la négociation (Barreteau, 1998 ; Barreteau et Bousquet, 2001 ; Rousseau, 2003). Le modèle est alors au centre dun autre processus (souvent un processus de négociation) et fait partie des accessoires du médiateur (accessoires qui permettent aux différents participants de sexprimer par rapport à un support, une représentation du système réel). Le modèle simulé intervient alors comme alternative aux supports classiques (cartes, rapports).
Intérêts et difficultés
Certains manques des méthodes classiques adoptant une approche macroscopique par rapport au système modélisé, typiquement les modèles agrégés, sont fréquemment énoncés et justifient souvent le recours à une approche individus-centrée :
- Létanchéité du niveau danalyse, les variables dun modèle global étant toutes au même niveau danalyse (Ferber, 1995) ;
- La complexité et le manque de réalisme des paramètres utilisés, les paramètres présents dans les modèles globaux pouvant permettre de rendre compte simultanément de plusieurs phénomènes et dont, par conséquent, la définition nest pas toujours très explicite ;
- La difficulté à modéliser laction ;
- La carence qualitative, les modèles étant construits sur des paramètres quantitatifs ne permettent pas de prendre en compte les observations réalisées par les experts du système ou les acteurs de terrain eux-mêmes.
Face à ces manques, la simulation individus-centrée apporte des réponses principalement en raison de sa grande flexibilité. Ainsi, elle permet de réaliser des emboîtements déchelles dans les modèles. Une entité particulière (une entreprise par exemple) pouvant être composée dautres entités (des employés par exemple), la propriété de réaliser des emboîtements déchelles dérive particulièrement de la possibilité de réaliser des agrégations lorsque lon utilise des langages informatiques. Lutilisation de langages informatiques et a fortiori de langages orientés-objets permet de plus dinclure un grand réalisme dans les modèles. Les modèles peuvent ainsi être réalisés avec un grand niveau de détails conceptuels, en particulier lorsque les entités du système sont représentées explicitement dans le modèle, comme cest le cas pour lapproche individus-centrée. La possibilité de modéliser laction dans les modèles individus-centrés provient davantage du fait que ces modèles sont généralement des simulations, cest-à-dire des abstractions de systèmes plongées dans le temps. Enfin, la grande flexibilité de la modélisation informatique permet de rendre compte de nombreux phénomènes qualitatifs, fréquemment observés par des experts du système mais quils ne pourraient retrouver transcrits dans des modèles globaux. Du point de vue du modélisateur et non plus de lexpert, Rob Axtell (2000a) différencie plutôt les modèles de simulation des modèles mathématiques ou des modèles solubles analytiquement. Le fait davoir recours à lun ou lautre est légitimé, selon lui, par la possibilité de recourir à une approche analytique ou pas. Il estime que chaque fois quune approche analytique est possible, il est préférable de recourir à elle puisquelle permet dobtenir une connaissance générale sur le fonctionnement du modèle. Mais cette approche nexclut pas en parallèle lutilisation de modèles individus-centrés pour le test dhypothèses ou la simple présentation du modèle. Lapproche individus-centrée est ainsi réservée principalement au cas où le modélisateur ne pourrait avoir recours, ou avec grand peine, à lapproche analytique pour aborder son problème. Axtell liste cependant une série davantages de la simulation individus-centrée, notamment la possibilité dintégrer lhétérogénéité de la population dans un modèle et la possibilité de prendre en compte facilement des processus spatiaux et des structures relationnelles.
Cependant, lapproche individus-centrée na pas que des avantages. Ainsi, Axtell met en évidence le principal inconvénient de lapproche individus-centrée. En effet, si les modèles de ce type sont assez faciles à réaliser, leur étude et en particulier leur exploration est très complexe.
Ainsi, nous pouvons isoler trois sources principales de complexité dans ce type de modèles :
- Leur grande stochasticité : lutilisation de générateurs aléatoires peut se retrouver lors de linitialisation des états des individus, lors de leur activation mais également fréquemment lors de leur interaction.
- La grande expressivité de ces modèles et par conséquent le fait que lon puisse vouloir rendre compte dans ces modèles, et notamment dans le modèle des individus, de trop de phénomènes qui peuvent obscurcir grandement son étude ultérieure.
- Le modèle de simulation individus-centrée est souvent complexe par essence. Cette complexité provient non pas dune complexité de ses composants, mais de lorganisation des interactions entre ces composants, de lagrégation de ces entités pour la production de comportements collectifs observables ou dobservations au niveau macroscopique.
Ces difficultés ont rapidement conduit les modélisateurs à adopter dune part des techniques de conception rigoureuses en provenance notamment du génie logiciel (Hill, 1996) mais également des techniques déjà existantes dans le domaine de la simulation. Ainsi les étapes de vérification et de validation du modèle (Kleijnen, 1995 ; Balci, 1998) voir daccréditation (Balci et al., 2000) de celui-ci ont été rapidement appliquées dans le cadre de la simulation individus-centrée (Hill, 1995 ; Hill et al., 1996).
Pour faire face à cette triple source de complexité, deux éléments que nous aborderons plus en détail dans la partie outils et méthodes sont nécessaires pour la mise au point et létude de modèles de simulation individus-centrés. Le premier est dordre méthodologique, il faut ainsi se garder détudier à brûle pourpoint des modèles trop complexes et aborder progressivement la complexité que lon souhaite introduire dans le modèle des entités, comme cest le cas dans Epstein et Axtell (1996). Le second découle plutôt de la grande stochasticité des modèles et de leur complexité intrinsèque, à savoir que lapproche expérimentale pour lexploration de ces modèles est non seulement souhaitable mais inévitable si lon veut comprendre le fonctionnement de ces modèles. Plongé dans ce que nous pourrions appeler un laboratoire virtuel, le modélisateur doit alors réaliser nombre dexpériences et de mesures pour comprendre ce fonctionnement sous de nombreuses conditions.
Individus, agents, objets
un peu de terminologie
Lentité, lindividu, lagent ou la cellule : les discussions sur lutilisation et la définition de ces termes sont encore ouvertes lorsque lon sintéresse aux simulations individus-centrées (Hare et Deadman, 2003). Le consensus est dautant plus difficile à obtenir que, dans le cadre de ce type dapproche, la taxonomie peut bien souvent à la fois recouvrir les définitions des entités réelles du système représenté, la représentation prototypique que le modélisateur en a (la représentation central-agent en économie) et la formalisation de ces entités en particulier sous forme de programmes informatiques (Franklin et Graesser, 1996).
En économie, le terme dagent se définit généralement comme entité économique dun système donné. Ainsi, les représentations prototypiques dun individu, dune entreprise ou dune institution pourront être désignées plus généralement par ce terme. En sociologie, de manière équivalente, cest le terme dacteur qui sera préféré pour désigner la représentation dune entité sociologique particulière, un individu ou un groupe dindividus. Linstitution recouvre cependant dans ce cadre le concept plus général de construit collectif comme la morale, les normes ou plus généralement les représentations collectives partagées. En physique statistique, les termes varient dentité à cellule ou particule mais recouvrent une entité plus stricte, il sagit dune entité atomique (au sens dirréductible) ou une entité de base du système. Le terme ne recouvre pas des groupements de particules et se retrouve toujours employé pour la désignation des entités au plus bas niveau dorganisation pour une échelle détude donnée. Quant au terme automate, il reste le prototype du modèle individus-centré, développé à lorigine par les physiciens pour étudier les problèmes liés à lagrégation (Wolfram, 1986 ; Toffoli et Margolus, 1987 ; Weisbuch, 1991). En écologie, lapproche individus-centrée correspond également à une approche dans laquelle les entités considérées sont des entités atomiques et pour lesquelles on nintroduit pas de niveaux dorganisation interne.
Ainsi, si les définitions dans les domaines précédents suscitent peu de débat, cest loin dêtre le cas en informatique. En ce qui concerne la formalisation même des entités du modèle, où consécutivement les termes dobjet (aujourdhui peu polémique), dacteur mais bien davantage celui dagent, déchaînent les passions et font saccumuler les définitions. Ainsi, dans Ferber (1995) on retrouve près de 11 définitions différentes pour qualifier le terme agent. Nous en distinguerons ici trois principales : les agents réactifs, les agents cognitifs et les agents logiciels. Pour commencer par cette dernière catégorie, les agents logiciels sont des programmes autonomes et sont, dans leur grande majorité, soit des agents assistants (le trombone sous MS-Word par exemple), soit des agents mobiles (les web-bots sur Internet qui vont collecter de linformation en se déplaçant sur un réseau). Les agents logiciels, sauf lorsquils sont utilisés comme interface « intelligente » avec la simulation, sont dans lensemble assez peu utilisés en simulation. Les agents réactifs et les agents cognitifs le sont en revanche beaucoup plus. Nous caractériserons basiquement un agent réactif comme étant un agent sommaire, dont le comportement est de type réflexe à des stimuli extérieurs. Si formellement rien ne les distingue des agents réactifs, (le programme correspondant réagit toujours uniquement à des stimulus extérieurs, lenvoi de messages), le comportement seul des agents cognitifs permet de les catégoriser par rapport à ceux-ci. En effet, ils comprennent des éléments qui proviennent des sciences cognitives, comme des filtres perceptifs ou des formes du type croyances, désirs ou intentions, en particulier en ce qui concerne leur fonction de décision.
Cependant si les typologies dagents sont nombreuses, notre propos ici, dans le cadre de létat de lart comme des travaux qui ont été menés, sétend largement à lensemble des modèles individus-centrés. Aussi, le terme multi-agents pourra être amalgamé au terme individus-centré, car lensemble des modèles multi-agents (Drogoul et Ferber, 1994 ; Drogoul et al., 1995 ; Doran, 1997) implémente en premier lieu des mécanismes individuels, donc des modèles de lindividu, et adoptent ainsi une focalisation sur les entités composant le système étudié. Cependant, certains auteurs restreignent le terme multi-agents à des modèles dont les entités respectent certains critères plus ou moins bien définis (autonomie ou sociabilité par exemple). Nous utiliserons donc de préférence le terme individus-centré, qui nous paraît être dune acception plus large et plus claire pour qualifier les modèles. Nous conserverons le terme dindividus pour qualifier les entités du modèle.
Définition formelle de modèles individus-centrés pour la simulation sociale
Nous allons maintenant introduire un méta-modèle qui nous permettra de synthétiser rapidement une forme de base commune à tous ces modèles dans le but dune part de faciliter la présentation des différents modèles de la littérature et dautre part pour mettre en avant les éléments saillants qui composent classiquement les modèles individus-centrés.
Nous considérons ainsi quun modèle individus-centré M peut être décomposé comme suit :
EMBED Equation.3 (Eq. 2-1)
M étant un modèle
A, lensemble des individus du modèle (ou agents)
G, le graphe dinteractions du modèle
E, lenvironnement ou lespace dans lequel peuvent être situés les individus. Cet environnement est interprété comme une entité existante en dehors de lindividu. Il ne correspond pas à un espace social dans lequel lindividu serait situé en fonction de la valeur de ses variables détat. Lenvironnement correspond à la représentation commune que nous nous faisons dun espace physique.
S, les facteurs exogènes du modèle (les scénarios par exemple)
T, le système de représentation et de gestion du temps retenu
Pour aller un peu plus loin, nous allons exprimer chacune des sous-parties de ce modèle. Ainsi pour commencer par lensemble A des entités du modèle, il faut bien noter que ces entités ne sont pas nécessairement homogènes et que lon peut avoir dans le modèle différents types dentités. Il nous semble que notre méta-modèle permet de rendre compte également des populations hétérogènes ou de lhétérogénéité à quelque niveau quelle soit placée (hétérogénéité du graphe des relations, de lenvironnement
). Ainsi la population A peut sexprimer comme :
EMBED Equation.3 (Eq. 2-2)
Ai étant lième entité du modèle
De plus, si nous cherchons à exprimer les entités Ai par leur état et leur fonction de transition entre ces états, nous aurons :
EMBED Equation.3 (Eq. 2-3)
Xi étant le vecteur détat (les attributs), à un instant donné, de lentité i
fi étant la fonction de transition détat (agrégation des méthodes) de lentité i
Lensemble des états possibles de lentité ou le domaine de définition des états que nous aborderons par la suite est inclus implicitement dans la fonction de transition, celle-ci étant définie sur ce domaine et prenant ses valeurs dans ce domaine. Il nous faut préciser ici un point important : le fait que A est une population dindividus qui sont caractérisés non seulement par leur fonction de transition, i.e. par des comportements particuliers, qui seront souvent identiques pour lensemble des individus (lhypothèse de comportements homogènes génériques pour une classe dindividus est souvent réalisée en pratique en modélisation) ; mais ces individus sont caractérisés également par leur vecteur détat, qui aura de par la même hypothèse dhomogénéité en général la même forme (même dimension et même domaine de définition) mais qui prendra des valeurs différentes. Ainsi la population peut être bien souvent caractérisée par une distribution de vecteurs détat. Cette vision de la population sera intéressante, nous y reviendrons, pour la compréhension du fonctionnement du modèle dont lévolution dans le temps pourra être dès lors envisagée comme lévolution dune distribution dans le temps.
Dans un modèle global ainsi défini, nous allons maintenant décrire les principaux couplages qui peuvent apparaître entre les différents éléments du modèle. Le temps apparaissant dans ces équations correspondra à une relation dordre temporelle entre les états des différentes entités, hypothèse minimale qui, nous le verrons, rend compte de lensemble des formalisations du temps existantes.
Ainsi si nous cherchons à exprimer un changement détat de lentité Ai dont le vecteur détat est Xi, nous obtenons :
EMBED Equation.3 (Eq. 2.4)
La mise à jour du vecteur détat de chaque individu peut ainsi prendre en compte la structure dinteraction sous-jacente au temps précédent G(t), létat global de la population A(t), létat de lenvironnement au temps précédent E(t) ainsi que les variables exogènes S(t). Dans le cas où la mise à jour du vecteur détat ne ferait pas référence aux vecteurs détat précédents de lindividu, mais uniquement à son état courant, ce processus correspond à un processus markovien. Un cas particulier qui apparaît cependant relativement fréquemment pour être mentionné, concerne le cas où la fonction de transition prend en compte une partie des états précédents de lindividu, une mémoire des états précédents. Dans ce cas, nous considérons que cette forme de mémoire est incluse dans le vecteur détat de lindividu Xi. Il faut également mentionner que la prise en compte des états des autres individus de la population se limite souvent, mais pas toujours, au voisinage social de lindividu (sommets adjacents dans le graphe). Une forme de couplage existe donc entre les entités A(t) et le graphe dinteractions G(t) et elle est réalisée au cur de la fonction fi. Pour ce faire, au graphe G nous pouvons associer une fonction de proximité topologique entre entités :
EMBED Equation.3 (Eq. 2-5)
et nous exprimerons alors parfois le changement détat dun individu par influence topologique locale :
EMBED Equation.3 (Eq. 2-6)
De manière identique, lenvironnement peut influencer la mise à jour de létat de lindividu. Cette influence est souvent locale et fonction de la localisation de lindividu dans cet environnement. Nous pourrons ainsi associer une fonction de proximité spatiale, mais celle-ci est très dépendante du modèle utilisé, et notamment du fait que lenvironnement est représenté comme un espace continu ou discret.
Concernant le graphe dinteractions, nous pouvons exprimer sa mise à jour ainsi :
EMBED Equation.3 (Eq.2.7)
La mise à jour du graphe - structure du réseau social peut être réalisée en fonction de létat des individus de la population A(t), de létat précédent du graphe G(t), de lenvironnement E(t) et des facteurs exogènes S(t). Cette dynamique du graphe est bien évidemment optionnelle et souvent absente des modèles. En effet, comme nous le verrons par la suite, beaucoup de modèles reposent sur un graphe statique déterminé à linitialisation. Si elles sont cependant effectuées, les mises à jour du graphe sont souvent réalisées localement (pour représenter par exemple une forme daction stratégique de lindividu sur ses accointances), en fonction des états des individus correspondants. Létat précédent du graphe est également parfois pris en compte pour modéliser une forme de création de liens par extension du réseau comme nous le verrons plus loin pour les modèles de complétion de triades. Certains facteurs exogènes peuvent également être pris en compte dans la mise à jour. Cest le cas par exemple de fonctions de stress globales qui peuvent rendre compte deffets de crises sur lévolution du graphe des relations. La prise en compte de létat de lenvironnement est en revanche peu présente dans les modèles même si nous pouvons y trouver des justifications de type « contrainte environnementale » créant la rupture de liens ou la favorisant. Les réseaux sociaux en moyenne montagne sont ainsi particulièrement influencés par le relief, les habitants étant davantage regroupés par vallées.
Concernant maintenant la mise à jour de lenvironnement au cours du temps, nous pouvons exprimer le couplage comme suit :
EMBED Equation.3 (Eq. 2-8)
Lenvironnement peut ainsi être mis à jour en fonction de létat des différents individus A(t) qui peuvent agir, souvent localement, sur lenvironnement, de létat précédent de lenvironnement E(t), de létat du graphe dinteractions G(t) et de certains facteurs exogènes S(t). De manière identique à léquation de mise à jour précédente (Eq.2-7), linfluence du graphe dinteraction sur la mise à jour de létat de lenvironnement est peu utilisée et assez difficilement envisageable. Cependant des cas peuvent exister modélisant la formation de routes ou de chemins déchanges entre communautés qui vont influencer la dynamique de lenvironnement.
Lévolution des facteurs exogènes au cours de la simulation peut être formalisée assez platement ainsi :
EMBED Equation.3 (Eq. 2-9)
Les facteurs exogènes (institutions par exemple) sont, de part leur statut, extérieurs au modèle. Ils peuvent correspondre à une fonction du temps seul, à des scénarios dévènements extérieurs qui sont appliqués sur le modèle, ou à des séries temporelles (pluviométrie par exemple).
Enfin, lélément T gère le temps dans la simulation et regroupe la représentation du temps mais également sa gestion. Cet élément va en quelque sorte servir de liant aux différents couplages présentés auparavant puisque cest lui qui va déterminer de manière endogène ou exogène lordre des mises à jour qui seront effectuées. Ainsi nous pouvons considérer que T représente entre autres une collection dévènements correspondants aux mises à jour du modèle. Cette collection peut être construite a priori (cas du scheduling par horloge) mais elle peut également évoluer au cours de la simulation, les individus ou entités de la simulation de par leur comportement pouvant conduire à la création de nouveaux évènements et leur ajout dans la collection.
Il nous faut noter que dautres types de formalisations de simulations existent. Le formalisme DEVS (Discrete Event System Specification) (Zeigler, 1976 ; Zeigler et al., 2000), basé sur une formalisme dautomates à états finis, sattache par exemple à la spécification formelle des relations entre entités atomiques définies également sous forme de vecteurs détats et de fonctions de transition associées, cependant, sil existe bien une extension de DEVS à la spécification de simulations individus-centrées ou multi-agents (DEVS-RAP pour Reactive Action Packages (Sarjouhian et al., 2001)) son utilisation reste difficile demploi. Un autre type de formalisation plus souple qui aurait également pût être utilisé provient des méthodes danalyse et de conception objets, comme UML (Fowler et Scott, 1997) ou différentes extensions proposées pour son extension à lanalyse de systèmes multi-agents (Ferber et Gutknecht, 1998 ; Van Dyke Parunak et Odell, 2001 ; Amiguet et al., 2002). Cependant ces formalismes graphiques laissent trop souvent place à lambiguïté, si bien que sils sont efficaces pour décrire des structures dorganisations entre composants logiciels, ils restent assez peu adapter pour décrire les modèles de manière formelle.
Maintenant que le meta-modèle a été exposé, pour nous permettre de rendre compte des formes de couplages qui peuvent être à luvre au sein des simulations individus-centrées, nous allons nous pencher plus spécifiquement sur les différents types de modèles rencontrés dans la littérature. Nous identifierons tout dabord de manière synthétique les grands types de modèles individus-centrés. Puis nous nous intéresserons plus spécifiquement aux modèles de linfluence sociale et aux modèles de dynamiques dopinions.
Différentes approches individus-centrées
La microsimulation
Chronologiquement, la première des méthodes de simulation qui prenne en compte le niveau individuel est la microsimulation. Introduit par Orcutt (1957), ce type de modèle stochastique a notamment été utilisé dans le cadre de létude des conséquences des changements de politique sociale sur des populations (Harding, 1990 ; 1993). Le principe de la microsimulation est le suivant : on travaille sur un large échantillon représentatif dune population dindividus, de foyers ou dentreprises. A chaque unité Ai qui correspond alors à un individu, un groupe ou une cohorte dindividus, on associe un âge (ou plus généralement une caractéristique qui permet de la situer dans le temps) et un ensemble dautres états Xi. Puis, en utilisant un ensemble de probabilités de transition, on détermine la probabilité que lunité subisse certains changements au cours de la simulation. Par exemple, la probabilité quune femme faisant partie dune certaine classe dâge donne naissance à un enfant. Après quoi, chaque unité est «vieillie » dun pas de temps. Le processus est itéré ainsi sur toute la durée de la simulation. La fonction de transition fi de chaque entité est alors probabiliste et ne prend en compte éventuellement que létat précédent de lindividu, de lenvironnement ou de facteurs exogènes.
Ainsi, nous avons, par simplification de léquation 2-4 :
EMBED Equation.3 (Eq. 2-10)
Nous remarquons ainsi labsence de la prise en compte dans la fonction de transition des états dautres individus dans la population A(t) et également de la structure relationnelle sous-jacente.
Les statistiques agrégées sur lensemble des résultats peuvent être utilisées comme des évaluations des caractéristiques futures de la population. Cependant, si lon peut considérer que la microsimulation est une des premières techniques simulatoires à se focaliser au niveau individuel, celle-ci na en général aucune prétention à expliquer les phénomènes sociaux. Elle reste un moyen de prédire des distributions statistiques futures sous certaines hypothèses. De plus, comme la microsimulation traite chaque unité (individu, foyer ou entreprise) isolément, il nest pas possible de modéliser les interactions entre ces unités. Enfin, les notions de motivations, de buts ou dintentions des unités ne peuvent en général que difficilement être prises en compte en microsimulation. En effet, chaque unité évolue dannée en année uniquement de manière stochastique en ne prenant en compte que son état courant et sa probabilité de transition vers les états possibles suivants. Le processus est donc typiquement markovien. En écologie, le terme de simulation individus-centrée ne connaît pas la distinction qui existe en simulation sociale entre microsimulation et simulation multi-agents (Grimm, 1999), le terme regroupant, en écologie, les deux acceptions. Nous pourrions cependant voir un parallèle aux modèles de microsimulation dans les modèles à compartiments ou les matrices de Leslie en écologie (Pavé, 1994).
La théorie des jeux
Un champ particulièrement intéressant qui adopte également une approche individus-centrée est celui de la théorie des jeux (Von Neumann et Morgenstern, 1944). De manière générale, la théorie des jeux sintéresse à létude des choix rationnels que peuvent faire des joueurs face à un dilemme. Le plus connu dentre eux, le dilemme du prisonnier (Flood, 1958) correspond à la situation dans laquelle deux joueurs, des prisonniers, doivent choisir entre trahir (dénoncer leur acolyte) et coopérer (se taire) sans avoir la possibilité de communiquer. Le dilemme tient dans le fait que la solution la plus avantageuse pour chacun est de trahir, mais que la solution la plus avantageuse collectivement est une double coopération. La pire solution collective du jeu est alors la trahison des deux joueurs. Les dilemmes de ce type prennent souvent appui sur une matrice des gains qui permet, en croisant les réponses de chacun des joueurs, de déterminer le gain de chacun. De nombreuses extensions de ce jeu particulier ont été réalisées : dilemme du prisonnier itéré, dilemme à n joueurs, jeu spatialisé dans lequel les joueurs résolvent le dilemme avec leurs plus proches voisins. Dans le cadre du dilemme du prisonnier itéré à n joueurs, de nombreux travaux se basent également sur des stratégies pour déterminer la décision des joueurs (Axelrod, 1992) et utilisent éventuellement des algorithmes évolutionnistes (Hales, 2001).
Dans le domaine plus large de la théorie des jeux, de nombreux autres dilemmes ont été mis en évidence pour caractériser des situations typiques de conflit social ou de choix social, ainsi le jeu de lultimatum, jeux bien public bien privé ou la tragédie des communs. En particulier certains jeux se focalisent sur la notion de coalition (Shapley et Scarf, 1974). Les hypothèses classiques qui sous-tendent la théorie des jeux sont cependant parfois discutables et souvent discutées, en particulier le fait que chaque joueur soit parfaitement rationnel et cherche à ce titre à optimiser son gain. Cependant, cette hypothèse de rationalité permet davoir dans ce cadre des comportements simples et déterministes et conduit au fait que la plupart des jeux formalisés sont solubles analytiquement, au sens où lon peut analytiquement en trouver des caractéristiques fondamentales comme les solutions (n-uplets de choix dans un jeu à n joueurs) qui correspondent à un équilibre de Nash ou qui sont Pareto-optimales. L'équilibre de Nash correspond à une situation dans laquelle chaque joueur, sil considère le choix de lautre comme fixé, na pas intérêt à modifier son propre choix. La simulation est, de plus, souvent utilisée dans ce cadre pour aider à la recherche de la solution analytique dans des cas complexes, typiquement le cas de la recherche de stratégies viables dans le cas du dilemme du prisonnier itéré spatialisé à n joueurs.
Les automates cellulaires
Une des approches individus-centrée parmi les plus employée concerne les automates cellulaires, dont lexemple le plus connu (au moins pour les informaticiens) est le « Jeu de la vie » de Conway (exposé par Gardner (1970)). Ceux-ci ont en fait été introduits dans les sciences naturelles par John Von Neumann à la fin des années 40 (Von Neumann et Burks, 1966) principalement dans le but de fournir une abstraction réductionniste de la vie et des systèmes auto-reproducteurs.
Formellement un automate cellulaire est composé de cellules A, chaque cellule Ai étant caractérisée par son état Xi et une fonction de changement détat fi.
Nous pouvons distinguer dès lors deux cas dautomates cellulaires, dont la topologie sous-jacente sera systématiquement un graphe statique et majoritairement une grille carrée repliée (un tore cf. Figure 2-1).
INCLUDEPICTURE "http://jasss.soc.surrey.ac.uk/1/3/1/fig1a.gif" \* MERGEFORMATINET INCLUDEPICTURE "http://jasss.soc.surrey.ac.uk/1/3/1/torus.jpg" \* MERGEFORMATINET
Figure 2-1 : Topologie généralement sous-jacente aux automates cellulaires, elle peut représenter une structure sociale (un réseau social) ou un environnement discrétisé dans lequel les agents se déplacent.
Soit la structure topologique déterminée représente une structure sociale, un graphe G statique, ainsi (, la fonction de mise à jour du graphe est constante et EMBED Equation.3 et la fonction fi de changement détat dune cellule prend en paramètre létat des cellules adjacentes sur le graphe pour déterminer le nouvel état de la cellule. Ainsi, nous pouvons réduire le changement détat (Eq. 2-4) à la forme suivante :
EMBED Equation.3 (Eq. 2-11)
Soit cette structure topologique représente un environnement E discrétisé dans lequel les individus se déplacent. Lenvironnement reste statique EMBED Equation.3 et de manière identique la fonction fi de changement détat dune cellule prend en paramètre létat des cellules voisines dans lenvironnement pour déterminer le nouvel état de la cellule. Ainsi, nous pouvons réduire le changement détat (Eq. 2-4) à la forme suivante :
EMBED Equation.3 (Eq. 2-12)
Ainsi, le premier automate cellulaire utilisé dans le cadre de la modélisation de phénomènes sociaux fut proposé par James M. Sakoda (1971). Ce modèle, construit pour étudier la formation de groupes dans une population et baptisé "checkerboard model", nétait au départ pas lié à la communauté des automates cellulaires et ny portait aucune référence. Cependant, Sakoda propose un modèle dans lequel un ensemble dentités qui ont des règles locales très simples et dont le comportement collectif est pourtant complexe. Ce modèle est en fait larchétype des modèles individus-centrés bottom-up.
Un autre exemple plus célèbre est fourni par Thomas Schelling (1971) et concerne lui aussi létude de formation de groupes dans une population et plus particulièrement lanalyse des processus de ségrégation. Comme dans le modèle de Sakoda, le résultat important qui sera retenu (outre les résultats du modèle lui-même) est le suivant : des règles simples appliquées au niveau local (niveau individuel) peuvent produire, au niveau global des effets qui sont «inattendus » et non spécifiés dans les règles dinteractions locales. Schelling cherche dans ce modèle les résultantes collectives dhypothèses simples réalisées au niveau individuel.
Il faut cependant noter que ni Sakoda, ni Schelling ne font explicitement référence aux automates cellulaires à cette époque. Néanmoins, leurs modèles sont clairement formalisés comme des automates cellulaires et en partagent les principales caractéristiques comme : la discrétisation de lespace et du temps, lintroduction dun voisinage social (sous-tendu par lenvironnement) et le fait que les processus modélisés soient locaux. Ainsi Albin (1975) classe clairement les modèles de Schelling et de Sakoda dans la catégorie des automates cellulaires et désigne également lénorme potentiel des automates cellulaires et des automates à états finis pour la compréhension des dynamiques sociales. Toutefois, cest seulement au cours de la dernière décennie que les modèles reposant sur des automates cellulaires ont été utilisés plus fréquemment dans les sciences comportementales et sociales (Nowak et Lewenstein, 1996 ; Latané et Nowak, 1997 ; Hegselmann et Flache, 1998 ; Ahmed et Elgazzar, 2001). Un nombre substantiel de sociétés artificielles décrites dans Epstein et Axtell (1996) peuvent également être formalisées sous forme dautomates cellulaires.
Simulations orientées-objet et simulations multi-agents
Quelle que soit la terminologie utilisée ou lobédience dans laquelle on se situe, on ne peut nier lapport essentiel des langages orientés-objet à la simulation individus-centrée. Pour référence, on pourra se reporter à Hill (1996) ou Joines et Roberts (1998). Ainsi, de nombreux modèles individus-centrés, en particulier les simulations multi-agents, sont implémentés dans un langage orienté-objet (SmallTalk, Java ou C++ pour les principaux). La raison en est que le paradigme objet est actuellement le seul (en attendant le développement de langages agents) à correspondre conceptuellement ou à partager conceptuellement la même structure que les modèles individus-centrés. Ceci provient dune propriété particulière de lobjet, lencapsulation, qui permet de regrouper au sein dune même structure les données correspondant à lobjet en question et les méthodes qui permettent de traiter ces données. Toutes les instances dune classe définie partagent la même structure et les mêmes méthodes, mais les attributs de chaque instance peuvent avoir des valeurs différentes. Ainsi, comme nous le verrons un peu plus loin, la description basique dune entité ou dun individu Ai dans un modèle individus-centré, correspondant à un vecteur détats Xi et à une fonction de transition associée fi, trouve sa pleine expression dans lapproche objet. Le vecteur détat prend différentes valeurs dindividu en individu, mais la fonction de transition est beaucoup moins diversifiée dans la population (on utilise généralement la même fonction de transition pour tous les individus du modèle).
Si lon cherche à différencier lobjet de lagent, on se heurte systématiquement au fait quactuellement tout système multi-agents étant implémenté en langage orienté-objet, volens nolens, tout agent est un objet (Odell, 2002). Cependant, on situe généralement la différence entre ces deux entités non pas au niveau de leur structure mais conceptuellement par le fait que lon retrouve dans les agents des mécanismes ou des attributs qui nexistent pas systématiquement dans le concept objet. Ainsi on caractérise souvent un agent en associant à lobjet quil est, des buts, des intentions, en bref des mécanismes que lon pourrait qualifier danthropomorphiques. Michael Wooldridge, nous donne loccasion de résumer cette différenciation de manière synthétique : « objects do it for free, agents do it for money ».
Il faut cependant reconnaître que linclusion de références anthropomorphiques pour exprimer cette différenciation na pas été neutre dans le rôle particulier quont joué les systèmes multi-agents dans la simulation sociale individus-centrée, même si la plupart des avantages que lon associe à une approche agent, dérivent directement davantages existants dans le paradigme objet.
Les différents intérêts de lutilisation dune approche individus-centrée ont souvent justifié une approche multi-agents pour la simulation de nombreux systèmes, en particulier dans le cadre de létude de lémergence de comportements collectifs (Drogoul, 1993).
La grande expressivité qui peut être incluse dans des modèles objets en général et des modèles de simulations multi-agents en particulier, ainsi que lintroduction facilitée de paramètres plus qualitatifs, ont rapidement fait naître lintérêt de lutilisation de ce type de modèles dans le dialogue avec des non-modélisateurs ou des non-spécialistes des sciences sociales. Ainsi, on retrouve dans Ferrand (1997) un ensemble de modèles appliqués à laide à la décision ou à laide à la négociation pour la gestion des territoires où les interlocuteurs sont des décideurs politiques pour laménagement du territoire par exemple. Lapproche multi-agents est particulièrement appropriée pour ce dernier type dutilisation. En particulier, comme le souligne (Franchesquin, 2001) dun point de vue méthodologique dans le cadre de la modélisation décosystèmes anthropisés, mais également pour intégrer les nombreuses dimensions relatives à ces derniers (Franchesquin et Espinasse, 2001 ; Franchesquin et al., 2003 ; Mathevet et al., 2003) et particulièrement pour inclure explicitement le modèle des individus, des acteurs au sens sociologique, du système modélisé (Cambier, 1994). Cette grande « liberté » de modélisation a ainsi permis lexistence dun large spectre de modèles et ceci dans différents domaines : létude et lévaluation dorganisations (Prietula et al., 1998 ; Lomi et Larsen, 2001) en incluant leur représentation sous forme de réseaux de dépendances (Sichman 1995 ; 1998) ; la modélisation de comportements de foules pour déterminer les meilleurs emplacements des sorties de secours (Helbing et al., 2002) ; la modélisation de phénomènes de croissance urbaine (Bura et al., 1993) ou de migration intra-urbaine (Benenson, 1998 ; Vanbergue et al., 2000) ; ou encore pour réaliser des scénarios, rétrospectivement, en paléontologie (Doran et al., 1992).
Cependant, si nous voulons nous référer à nouveau au méta-modèle présenté pour y inclure les différents types de modèles multi-agents, nous pouvons de manière simplificatrice se servir du fait que de facto les agents sont des objets, des structures paramétriques qui regroupent au sein de la même structure les données relatives à lobjet, ses attributs et les fonctions pour les traiter, ses méthodes. Ainsi, formellement nous pourrons considérer quun modèle de simulation multi-agents M est lensemble {A,G,E,S,T} où A sera la population dagents {Ai}, chaque type dagents (nous pouvons considérer le cas de populations hétérogènes) étant défini par son vecteur détat Xi (ses attributs, quil sagisse dun agent réactif ou dun agent cognitif) et la fonction de transition détat associée fi (une forme agrégée des méthodes associées à lagent).
Les couplages qui peuvent apparaître dans les simulations multi-agents embrassent tout le spectre des couplages décrits lors de lexposé du méta-modèle. Concernant le couplage entre la mise à jour de lagent et les autres éléments du modèle, on retrouve ainsi fréquemment des couplages avec les autres agents via un réseau social (Auer et Norris, 2001) de type EMBED Equation.3 ; ou des couplages avec les autres agents via lenvironnement de type EMBED Equation.3 (Epstein et Axtell, 1996) ou encore des couplages complets entre environnement, agents et réseau social EMBED Equation.3 qui peuvent inclure (Deffuant et al., 2002b) ou non (Bonnefoy et al., 2001) une composante exogène S(t) dans la mise à jour de létat de lagent.
Concernant les couplages entre les autres composantes du modèle, que ce soit le couplage de lenvironnement avec la population ou le réseau social ou le couplage du réseau social avec la population et lenvironnement on retrouve également un certain nombre de travaux qui remplissent la largeur du spectre des possibles.
Simulations individus-centrées de linfluence sociale
Après ce rapide panorama du champ de la simulation sociale ou de la modélisation sociale et plus particulièrement de lapproche individus-centrée nous allons maintenant nous focaliser sur un champ particulier de la modélisation des systèmes sociaux dédié à la modélisation de linfluence sociale et particulièrement à la modélisation de la dynamique des opinions dans une population. Cet intérêt a très tôt fait partie des préoccupations liées à la modélisation du social par le biais des modèles de vote. De lénoncé des propriétés de divers systèmes de vote, Condorcet (1994) énoncera en particulier le paradoxe des votes, à la détermination des conditions liées à lobtention dun consensus au sein dun groupe (Stone, 1961 ; Chatterjee et Seneta, 1977 ; Cohen et al., 1986), jusquà lanalyse dopinions publiques au cours denquêtes dopinions (classiquement les sondages liés aux élections politiques), pour terminer par la compréhension des mécanismes sous-jacents à linfluence sociale et à la dynamique des opinions publiques (par exemple en psychosociologie (Deutsch et Gerard, 1955)), les préoccupations du champ sont larges et nous ne tenterons pas davantage den expliciter les motivations. Nous proposons ici de caractériser les différents modèles dinfluence sociale et de dynamique dopinions formalisés (en termes mathématiques ou algorithmiques) collectés dans la littérature.
Pour ce faire, nous allons nous intéresser consécutivement aux différents éléments présents dans le méta-modèle pour déterminer comment ceux-ci sont implémentés et gérés dans la littérature. Ainsi, nous aborderons successivement la représentation et la gestion du temps ; lindividu avec les nombreuses composantes qui peuvent y être associées (la décision, linfluence et la transmission des messages en particulier) ; le réseau social ou la structure dinteractions sous-jacente ; lenvironnement et enfin les facteurs exogènes des modèles.
Le temps
Pour aborder le problème du temps dans les simulations, il nous faut tout dabord distinguer deux aspects. Le premier concerne la manière dont celui-ci est représenté dans les simulations. Le second concerne la manière dont il est géré « pratiquement » dans ces simulations. La composante T définie dans le méta-modèle présenté (Eq. 2-1) est la résultante des deux aspects et correspond à la manière dont sera implémenté le temps dans le modèle.
La représentation du temps
Concernant la représentation du temps dans les simulations individus-centrées, nous retrouvons les représentations classiques utilisées dans le domaine de la simulation en général. Ainsi, nous distinguerons trois types de représentations :
- Le temps continu, la variable représentant le temps dans la simulation est alors un nombre réel et létat du système peut être défini quelle que soit sa valeur.
- Le temps discret, la variable représentant le temps étant un entier, les états du système sont définis pour chacune de ses valeurs et la représentation de lévolution du système correspond à une fonction en escalier (constante par morceaux).
- Lapproche évènements discrets (Zeigler et al., 2000 ; Magnin, 1996 ; Minar et al., 1996) se focalise sur loccurrence des évènements dans la simulation plutôt que sur le temps directement.
Cependant, le plus souvent, et particulièrement en simulation sociale, le temps nest pas une dimension sur laquelle le modélisateur peut travailler avec précision. Il peut être difficile, par exemple, dévaluer la date doccurrence de la prochaine rencontre entre deux personnes ou même démettre des hypothèses quant à celle-ci. Une des raisons de cet état de fait pourrait provenir du manque de robustesse des données sociologiques sur ce point. Pour résoudre ce problème de la temporalité du système modélisé, la solution communément adoptée est de prendre des hypothèses minimales et donc de se baser uniquement sur une relation dordre temporelle entre les états du système plutôt que sur une véritable gestion du temps dans la simulation. Il en résulte ainsi fréquemment une utilisation de lapproche temps discret.
La gestion du temps
La représentation du temps dans les simulations sociales peut être ramenée dans tous les cas à une relation dordre temporelle entre les états du système. Deux éléments sont cependant déterminants pour caractériser la manière dont ce temps est géré dans ces modèles. Il sagit dune part de lactivation ou du scheduling : le moyen par lequel les individus sont activés ; et dautre part de la mise en relation des individus qui correspondrait davantage à la cardinalité de linteraction, cest-à-dire au nombre déléments qui entrent en jeu au cours de linteraction.
Comme souligné dans plusieurs articles, lactivation est un point important dans les modèles de simulation individus-centrée. Le mécanisme ou la technique dactivation retenue influence beaucoup les sorties du modèle (Axtell, 2000b ; Meurisse et Vanbergue, 2001 ; Michel et al., 2001 ; Huberman et Glance, 1993 ; Lawson et Park, 2000). Nous névoquerons pas ici des problèmes posés par lactivation dans les simulations distribuées mais seulement par lactivation dans un modèle exécuté sur un seul processeur. En considérant la manière dont le modélisateur représente le temps dans son modèle, nous distinguons classiquement deux principales catégories (Coquillard et Hill, 1997) (cf. Figure 2.2) pour le gérer.
Figure 2-2 : Diagramme UML des grands types dactivations
Concernant lapproche évènements discrets (Zeigler et al., 2000 ; Magnin, 1996 ; Minar et al., 1996), la date doccurrence des évènements dans la simulation est généralement calculée au cours de la simulation et les évènements sont souvent ordonnés dynamiquement en fonction de cette date dans un échéancier. Les problèmes de concurrence entre évènements sont résolus en général par lutilisation dune fonction de résolution de conflits au sein dun noyau de synchronisation, comme on la retrouve formalisée explicitement en DEVS (Zeigler et al., 2000). Lactivation par une loi de Poisson est dans ce cadre proposée par Young (1998). Ce dernier utilise ainsi une loi de Poisson pour déterminer pour chaque individu loccurrence de son prochain changement détat. Lutilisation dune loi de Poisson correspond dans ce cas à une hypothèse dindépendance entre les évènements, ici donc les dates des changements détat de chaque individu. Il nous faut souligner ici quune gestion du temps par évènements discrets peut être appliquée à des représentations du temps qui sont continues, discrètes ou à évènements discrets. Bien que, comme souligné par Coquillard et Hill (1997) lapproche par évènements discrets soit la plus robuste et la plus efficace en termes de temps de calcul, elle nest cependant pas toujours applicable (Galler, 1997).
Si nous considérons maintenant lapproche temps discret dite également « par horloge », nous pouvons distinguer différentes manières de gérer lactivation des entités du modèle :
- Lactivation synchrone ou activation avec double buffering (Travers, 1996), tout dabord, correspond à une mise à jour en deux passes de létat des individus. La première passe correspond au calcul de létat suivant de chaque individu de la population, la mise à jour nétant pas effectuée mais stockée dans des variables temporaires. La deuxième passe correspond à la mise à jour des nouveaux états pour chacun des individus. Avec cette activation, la fonction de mise à jour est déterministe au moins en ce qui concerne lactivation.
- Lactivation asynchrone correspond à une mise à jour en une passe où chaque individu est sélectionné aléatoirement, la mise à jour calculée et effectuée. Concernant lactivation asynchrone, plusieurs méthodes de sélection dun individu peuvent être mises en place.
- Lactivation asynchrone simple, utilisée par exemple dans Epstein et Axtell (1996), consiste à tirer aléatoirement un individu à chaque pas de temps (ou itération) et à le mettre à jour ensuite. Comme souligné par Michel et al. (2001) cette méthode permet déviter le problème de la gestion de la concurrence entre les évènements.
- Lactivation n-asynchrone est utilisée pour introduire la contrainte quà chaque pas de temps, tous les individus doivent avoir été activés une fois et une seule. Elle consiste, à chaque itération, à activer un par un tous les individus aléatoirement dans une liste tout en construisant la liste des individus pour la prochaine itération. Chaque individu étant mis à jour juste après son activation.
- Lactivation asynchrone par fréquence dinteraction (Deffuant, 2001) est moins généralisable mais peut être également considérée comme intermédiaire entre lapproche événements discrets et lapproche temps discret. Elle est appliquée à des modèles qui comprennent un graphe dinteraction et dont les interactions entre les individus sont les seules sources de changement détats individuels (pas de déplacement dans lenvironnement par exemple). Lactivation concerne alors non plus les individus mais les relations entre eux. Une relation (un lien du graphe) étant sélectionnée aléatoirement de manière biaisée en fonction de fréquences dinteractions précédemment définies, linteraction correspondante est alors réalisée. Une variante de cette activation (Amblard et Deffuant, 2003) a été appliquée à des modèles dinteractions conditionnelles. Nous activons alors aléatoirement que les relations qui vérifient une condition dinteraction présente dans le modèle (et qui résulteront donc en un changement détat dau moins un des individus impliqués dans la relation). Les résultats de ce type dactivation dépendent cependant fortement du type de modèle, la mise à jour du graphe des interactions possibles (qui vérifient la condition) étant très coûteuse en temps de calcul.
Lindividu
Pour présenter ici les différents types dindividus qui peuvent être rencontrés dans la littérature, nous aborderons successivement :
- la caractérisation du domaine de définition des états dun individu (plus particulièrement le domaine de définition de la variable qui représente son opinion ou les attributs de lindividu sous influence, soit Xi (cf. Eq. 2-4) dans le méta-modèle),
- la cardinalité de linfluence dans les modèles qui correspond à un couplage entre le v(A,G) qui est pris en compte dans la fonction de transition détat (cf. Eq. 2-6) et le processus de gestion du temps T,
- les processus de transmission de linformation,
- les formes dinteractions entre individus,
- les processus décisionnels chez les individus, ces derniers aspects étant inclus dans la fonction de transition fi du méta-modèle (Eq. 2-4).
Les attributs de lindividu
Le domaine de définition du vecteur détats Xi dun individu Ai, et plus précisément des états correspondants à son opinion ou à lattribut susceptible de subir une influence (le vote ou une décision dadopter ou pas une innovation), correspond dans le modèle à lensemble des valeurs que peut prendre létat dun individu dans labsolu et non pas les valeurs contraintes par une dynamique quelconque du modèle. Il sagit donc bien des domaines de définition et de variation de la fonction de transition détat de lindividu.
Ce domaine peut être unidimensionnel (dim(Xi)=1) dans le cas dune variable simple qui représente létat dun individu comme lopinion dans Weisbuch et al. (2002a), ou le vote dans Galam (1997). Mais il peut être également multidimensionnel (dim(Xi)=n , n>1) comme cest le cas dans le modèle de dissémination de la culture (Axelrod, 1997), dans lequel un vecteur de valeurs discrètes représente létat courant de lindividu. Chaque composante du vecteur est alors associée à un trait culturel présent ou absent chez lindividu. La dimension est cependant toujours finie. A notre connaissance il nexiste pas de modèles dans lesquels il y a création de dimensions pour caractériser létat dun individu.
Lautre point important pour caractériser ce domaine de définition concerne ensuite la caractérisation de chacune de ces dimensions Xij (la jème composante du vecteur détat de lindividu i). Chaque dimension peut être :
- finie, comme cest le cas du choix binaire dans le modèle de Galam (1997) (Xij est alors un booléen) ou des motifs (au sens de formes) culturels dans celui dAxelrod (1997) ou (Castellano et al., 2000) dont chaque dimension est binaire ou discrète et bornée ;
- continue et bornée, par exemple dans les récents modèles de dynamique des opinions (Dittmer, 2001 ; Hegselman et Krause, 2002 ; Deffuant et al., 2002a), où ces dernières sont représentées par des réels compris entre 1 et 1 ou 0 et 1 (cf. Figure 2.3).
Figure 2-3 :Diagramme UML de lespace des états de lindividu
Nous rappelons ici que les individus considérés au niveau agrégé comme une distribution de vecteurs détat est un point important pour la compréhension du fonctionnement des simulations individus-centrées. La vision de lévolution de la population comme une évolution dune distribution de vecteurs détats dans le temps permet de mettre en place des outils particuliers.
Cardinalité de linfluence
Lactivation des individus ou des relations nest pas le seul déterminant de la temporalité des interactions. En effet, le nombre dindividus impliqués au cours dune itération ou plutôt au cours dune activation, est une caractéristique importante du modèle (cf. Figure 2.4). Il est pris en compte plus formellement par la fonction v(A,G) définie par léquation 2-6 qui renvoie les individus qui peuvent être pris en compte au cours de linteraction.
Figure 2-4 : Diagramme UML pour la cardinalité des influences dans les différents modèles de la littérature.
Ainsi, si nous considérons, dans le cadre des modèles dinfluence, au cours de linteraction, le nombre dindividus influents n et le nombre dindividus influencés m, nous obtenons les cas n-m suivants :
- 1-1 : Classiquement utilisé, les individus sont en interactions par paires (Weisbuch et al., 2002b ; Deffuant et al., 2002a), soit en activant un premier individu et en choisissant le deuxième individu aléatoirement dans son voisinage social ; soit en activant directement une relation entre les deux entités.
- n-1 : Ce type dinfluence dans lequel n individus influencent lindividu activé est caractéristique des modèles dans lesquels interviennent une influence de groupes, par exemple avec une mise à jour de létat des individus par application de la règle de majorité sur le groupe auquel lindividu appartient (Galam, 1997), ou par lapplication dun seuil sur la moyenne des états de ses voisins (Granovetter, 1978). Un cas particulier est celui pour lequel n=N la taille de la population (ou N-1 si nous excluons létat de lindividu considéré). Dans ce cas, lindividu peut être considéré comme étant en information complète et a accès à létat de tous les autres individus de la population. Ils correspondent, nous lavons vu précédemment à lhypothèse de champ moyen en physique statistique.
- 1-m : Dans ce cas là, lindividu sélectionné influence m autres individus. Cest souvent le cas de modèles de propagation, par exemple les modèles de paniques en économie.
- n-m : Dans ce cas un groupe de taille n en influence un autre de taille m, comme cest le cas dans le modèle de Sznajd (Sznajd-Weron et Sznajd, 2000) dans lequel un individu est activé et un de ses voisins sur le graphe de relations est choisi aléatoirement. Si les deux individus ont la même opinion, ils influencent alors tous leurs voisins (communs ou pas) qui adoptent alors lopinion commune aux deux individus sélectionnés.
Dans le cas de cardinalités n-1, (n individus vont influencer la décision de lindividu courant) le mécanisme dagrégation des influences reçues ou collectées auprès des n individus, est très caractéristique du modèle. Quelques mécanismes agrégatifs se retrouvent malgré tout assez fréquemment :
- Influence moyenne : dans le cas dune relation n-1, lindividu réalise la moyenne des influences de son voisinage social pour la prendre en compte par la suite dans le processus décisionnel. Un cas particulier appliqué au cas dun ensemble de choix fini pour lensemble des individus consiste à appliquer une règle de majorité sur le voisinage social, cest le cas de nombreux modèles de vote binaire (Föllmer, 1974 ; Galam, 1997).
- Modèle à seuil : dans le cas dune cardinalité n-1, (lindividu est influencé par un groupe de n individus), lindividu applique un seuil qui lui est propre à linfluence quil reçoit ou collecte auprès de son voisinage social. Ce seuil représente généralement une proportion limite de son voisinage social qui doit avoir atteint un certain état pour que lindividu soit lui-même influencé. Lapplication à un ensemble de choix binaires est particulièrement répandue dans les modèles de diffusion de linnovation sur des réseaux sociaux où le choix binaire correspond à ladoption ou pas dune innovation (Valente, 1995) ou dans les modèles de formation démeutes (je me révolte / je ne fais rien) dans un cas complètement connecté (Granovetter, 1978). Ainsi dans ces cas, le seuil de lindividu correspondant à un taux de la population dans un état « ayant adopté » ou « en émeute », lindividu change de comportement si la proportion de son voisinage social qui a adopté le nouveau comportement est supérieur au seuil personnel de lindividu. Le seuil reflète ainsi la plus ou moins grande résistance de lindividu au changement. Un seuil faible correspond souvent à un comportement innovateur et un seuil plus élevé à un comportement suiviste. Dans ces cas les choix de la graine dinnovateurs et de leur positionnement dans le réseau social sont capitaux pour la diffusion du nouveau comportement (Weisbuch et Boudjema, 1999).
Un autre cas de lintroduction de cette composante sociale à la décision concerne les dynamiques dites dattraction-répulsion ou les dynamiques mimétiques en général. Dans le cadre de cardinalité de linfluence 1-1 (lindividu est influencé par un seul autre à la fois), une dynamique souvent produite est celle de lattraction-répulsion, pour laquelle lindividu influencé a tendance à se rapprocher de lindividu influençant sous certaines conditions, et éventuellement à sen éloigner sous certaines autres. Ces conditions peuvent correspondre à une distance minimale entre les états des deux individus (Deffuant et al., 2002a ; Hegselmann et Krause, 2002 ; Axelrod, 1997), dans ce cas lattraction entre individus est non-linéaire. De plus, si le mécanisme de répulsion est présent dans certains modèles qui incluent la notion denvironnement pour répondre à des problématiques doccupation de lespace ou de répartition des ressources, dans les modèles dinfluence ou de dynamiques dopinions ces mécanismes sont assez peu présents laissant souvent la place à des mécanismes dattraction sous conditions.
Transmission entre individus
Derrière ce que nous appelons ici la transmission entre individus se cache en fait le lien réalisé entre létat interne (privé) dun individu Ai et le message (état ou ensemble détats) que va recevoir et traiter lautre individu Aj impliqué dans linteraction. En fait, ces formes dinteractions varient, elles aussi, dun modèle à lautre. Nous pouvons formaliser la transmission de manière assez générale par lintroduction dune fonction de transformation gi des états perçus par un agent lors de la mise à jour de son état. Nous pouvons ainsi décrire la mise à jour de lagent :
EMBED Equation.3 (Eq.2-13)
Nous pouvons cependant isoler trois principaux cas pour la fonction gi :
- Simple transmission : gi correspond à lidentité et lindividu Aj perçoit létat interne de lindividu Ai sans distorsion. Il ny a pas de distinction pour les individus entre un état privé contrôlé par lindividu et un état public à la disposition de tous les autres. Cest le cas de la grande majorité des modèles rencontrés (Weisbuch et al., 2002a ; Axelrod, 1997).
- Transmission bruitée : gi correspond à une fonction probabiliste et létat transmis par lindividu Aj est bruité (en général par un bruit uniforme autour de la valeur transmise). Le bruitage est effectué en général une seule fois : soit par lindividu émetteur, soit par le récepteur. Nous ne distinguerons pas les deux cas, le point important étant que lindividu influencé traite un état bruité de lindividu avec lequel il interagit pour mettre à jour son propre état (Epstein, 2001 ; Orléan, 1995). Le bruitage peut éventuellement faire intervenir des transformations plus complexes de létat de lémetteur. Urbig (2003) se place par exemple dans le cadre de la théorie de linformation et distingue message pensé (opinion propre), message vocalisé (attitude), message entendu (attitude perçue) et message compris (attitude interprétée) dans son modèle.
- Communication par média, ce troisième cas bien que ne rentrant pas dans ce cadre (puisquil est pris en compte explicitement par un couplage entre lenvironnement et les individus) est intéressant à mentionner ici. Il est illustré typiquement par les modèles de colonies de fourmis, pour lesquels le message passe par un média ou est déposé sur un support (en loccurrence lenvironnement). Le message peut être éventuellement dégradé au cours du temps, mais pas nécessairement ; le point important étant que linfluence de létat de Aj sur lindividu Ai est différé dans ce cas au moment où Ai passe sur le message. Dans ce type de modèles, les messages échangés ne distinguent en général pas le récepteur, ils sont déposés pour tous ceux qui les trouveront.
Outre les mécanismes de déformations du message transmis, une autre distinction peut être faite concernant ce que nous pourrions appeler le vocabulaire des individus ou la structure de leur communication. Si dans la grande majorité des modèles cette communication est très frustre (simple transmission de valeurs) et ne peut être réellement qualifiée de communication, certains courants des systèmes multi-agents ont colonisé le champ de la simulation sociale. Ainsi Conte (1999) défend lapproche de modélisation qui consiste à modéliser des mécanismes « réalistes » de linteraction sociale, la modélisation par des agents socialement intelligents, avec des communications langagières. Cependant de tels modèles étant beaucoup plus difficiles à explorer, il existe peu de modèles qui incluent des agents délibératifs, ceci, dans le cadre des modèles de linfluence sociale ou des modèles de dynamiques dopinions. Ce type de modèle est également pris en compte dans notre méta-modèle puisque la communication langagière utilisée est une propriété de lindividu et fait donc partie à ce titre de son vecteur détat Xi et que sa transmission peut être gérée par les cas précédemment exposés concernant la prise en compte dune fonction de transmission gi appliquée aux états des individus participant à linteraction au cours de la mise à jour de létat dun individu.
Processus décisionnel
De nombreux modèles de simulation sociale qui adoptent une approche individus-centrée incluent la notion de décision de lindividu qui est mis face à un choix. Formellement nous pouvons décomposer ce mécanisme décisionnel sous la forme dune décision, un état EMBED Equation.3 de lindividu et dune fonction de décision hi qui est comprise et qui est parfois limitée à la fonction de transition détat fi. Cependant, les processus décisionnels implémentés dans les modèles de linfluence font bien souvent et bien évidemment référence aux principales théories de la décision et correspondent à des dynamiques suffisamment distinctes que nous allons maintenant présenter.
Décision par fonction dutilité
Lutilitarisme en matière de théorie de la décision plonge ses racines dans louvrage fondateur de la théorie des jeux : celui de Von Neumann et Morgenstern (1944). Cette théorie sera ensuite davantage formalisée par Savage (1954). Son principe est relativement simple : il consiste à représenter la décision di de lagent ou de lindividu comme le résultat dune fonction hi - la fonction dutilité - qui lui permet dévaluer les choix qui se présentent à lui. Ainsi lindividu parfaitement rationnel (hypothèse que prennent Von Neumann, Morgenstern et Savage) ayant à réaliser un choix (à prendre une décision), optera pour le choix qui va maximiser son utilité. Des versions dans lesquelles lindividu cherche à optimiser sa stratégie existent également, comme nous lavons vu, dans le cadre classique du dilemme du prisonnier et de ses nombreuses variantes (Axelrod, 1992 ; Beaufils, 2000 ; Mathieu et al., 2000).
Un élément important des modèles qui est souvent pris en compte dans la fonction dutilité concerne le fait que lindividu ait une mémoire (totale ou partielle) de ses états précédents. Lindividu devient ainsi un apprenant au regard des résultats de ses stratégies précédentes (Duffy, 2001).
Linfluence sociale dans ce type de modèles est introduite dans la décision par la prise en compte dune part des actions passées des autres joueurs et dautre part dans certains modèles par lévaluation des actions possibles des autres joueurs, intégrée au mécanisme de décision individuelle.
Le décideur parieur
Lhypothèse du décideur idéal a cependant soulevé de grosses objections, lhomme ne réalisant pas toujours les choix optimaux. Parmi les tentatives pour corriger cette théorie, lhypothèse du décideur parieur (Edwards, 1954) propose que lindividu réalise, outre une maximisation de sa fonction dutilité, une évaluation des probabilités associées à tout ou partie des éléments extérieurs. Il ne peut donc plus évaluer sa fonction dutilité de manière parfaite, mais de manière probabiliste. Le mécanisme de décision ne correspond donc plus à une maximisation de lutilité, mais à une maximisation de lespérance associée à cette utilité. Un exemple en est la décision dacheter ou pas un ticket de loto, en prenant en compte la probabilité davoir un billet gagnant. Lintroduction de linfluence sociale dans ce cadre est également fréquemment probabiliste ; le joueur peut associer des probabilités aux comportements des autres joueurs.
Outre le cadre théorique du décideur parieur introduit par Ward Edwards (1954), laléatoire peut également apparaître, dans le cadre des modèles de linfluence sociale, dans la mise à jour de létat de lindividu, soit pour la résolution de conflits (la moitié de mes voisins pense A, lautre moitié pense B, je choisis donc aléatoirement A ou B), soit directement dans la dynamique (je choisis A avec une probabilité égale à la proportion de mon voisinage qui est A). Schweitzer et Holyst (2000) proposent de plus, un modèle brownien de la dynamique des opinions qui introduit une composante aléatoire forte au sein du modèle de simulation. De même Nigel Gilbert (1997) dans un modèle de dynamique de lAcadémie des sciences choisit les directions de lextension du champ scientifique (qui correspond au choix dun thème de recherche par les « individus-chercheurs » dans ce modèle) en partie de manière aléatoire.
Linclusion de la perception subjective de ces probabilités dans la fonction de décision donnera naissance un peu plus tard à la théorie du prospect (Prospect Theory ou Cumulative Prospect Theory) de Tversky et Kahneman (1981 ; 1992). Lidée principale est que lindividu névalue pas les probabilités de gain de manière objective. Des éléments subjectifs participent à la décision et doivent donc être pris en compte. Par exemple, la différence de valeur entre 0 et 10 euros est interprétée subjectivement par lindividu comme étant plus importante que celle entre 50 et 60 euros. Ainsi, dans le cadre de la Prospect Theory, lindividu possède une fonction pour les valeurs des utilités et une fonction pour les probabilités subjectives associées, la décision correspond alors à un couplage des deux fonctions.
Lhomo socio-economicus
Lindenberg (1990) propose une autre extension avec son méta-modèle de lhomo socio-economicus, qui tend à prendre en compte linfluence sociale comme une composante de la décision. Lindividu fait ses choix non seulement en fonction de ce qui est préférable pour lui, mais aussi en prenant en compte les conséquences de son choix sur sa vie sociale (influence de type normative au sein dun groupe). Ainsi, on peut introduire, comme dans Deffuant et al. (2000), une fonction dutilité à deux composantes : une composante économique, qui correspondra à lutilité intrinsèque que lindividu va retirer de ses choix et une composante sociale, qui correspondra à lutilité sociale quil retirera de ses choix. Ainsi, un choix mal perçu socialement (ne pas trier ses déchets par exemple) pourra être évalué négativement en considérant la composante sociale, mais positivement (efforts en moins à fournir) du point de vue de lutilité propre à lindividu. Lensemble des deux composantes étant agrégé, lindividu peut ainsi faire des choix impopulaires mais très bénéfiques pour lui ou au contraire, refuser de faire les choix optimaux pour lui sachant que la sanction sociale sera plus forte que son gain propre. Une telle approche est par exemple intégrée au modèle de décision décrit dans Deffuant et al. (2000).
Cependant, en suivant cette approche, la composante sociale peut être traitée différemment suivant les modèles en particulier en ce qui concerne linfluence sociale à laquelle est soumis lindividu. Ainsi, un critère majeur de différenciation des modèles de linfluence sociale est lié à la cardinalité de linfluence abordée plus haut.
Lhomo economicus et la boîte à outils cognitive
Une autre extension intéressante de la théorie classique est celle qui tend à se rapprocher des sciences cognitives en introduisant explicitement des composantes cognitives dans le mécanisme décisionnel des individus. Ainsi, les modèles de décision délibératifs sont mis en place en particulier dans les architectures dagents délibératifs ou agents intentionnels (Rao et Georgeff, 1991 ; Cohen et Levesque, 1988) construits sur une architecture BDI (Belief, Desire, Intentions). Formellement nous pouvons cependant inclure ces éléments cognitifs comme des composantes Xij du vecteur détat Xi en précisant malgré tout que ces éléments seront dune nature plus complexe que les attributs envisagés précédemment puisque les croyances de ces agents dérivent directement dune approche objet, symbolique avec une logique associée. Ces représentations que nous pouvons considérer comme étant des représentations objets correspondent à un mode de représentation très employé en pratique. L'agent maintient ainsi en mémoire un réseau d'objets formant une image, reproduction partielle de son environnement, des autres agents, etc.. Il évalue les transformations de l'univers, la satisfaction de ses propres buts au travers de ce réseau d'objets et chaque agent maintient une liste des sites spatiaux et des autres agents rencontrés, dans un repère spatial qui lui est propre.
Les désirs associés aux agents de type BDI correspondent à la fois à des visions du monde futur, à des buts ou des objectifs cohérents (la cohérence étant ici symbolique dun désir rationnel), et à des plans (Rao et Georgeff, 1991) pour la réalisation des buts et objectifs de l'agent. Les plans correspondent, par exemple, dans le cas particulier d'ordonnancement de cubes (Ferber, 1995) (cf. Figures 2.5 et 2.6), à des schémas dactions applicables pour atteindre des buts ou objectifs finaux ou partiels.
Figure 2-5 : Problèmes dordonancement de cubes
Figure 2-6 : Réseau de Pétri pour la résolution dobjectifs dans le cadre dordonancement de cubes
La troisième composante des architectures BDI - lintention ou intentionnalité - est obtenue à partir des buts notamment par la notion dengagement (Cohen et Levesque, 1988). Elle est ainsi relative à des individus particuliers auprès desquels lindividu adopte une certaine attitude et un certain comportement.
Pour la décision chez les agents cognitifs, le débat tourne autour de deux approches pour prendre en compte laspect social : définir des croyances mutuelles, des désirs et des intentions communes ou définir des normes et des conventions. Ainsi, pour la réalisation dagents sociaux, Rao et Georgeff (1991) définissent des agents qui ont des notions de croyances communes et de buts et intentions communs. Ils utilisent des plans sociaux (au sens de planification) spécifiant comment ils doivent être menés et sous quelles conditions. Le processus de négociation ou de décision collective consiste alors à choisir un but commun, puis sélectionner un plan social satisfaisant le but commun et finalement s'engager en commun à la réalisation de ce plan.
Woolridge et Jennings (1994), quant à eux, choisissent le double processus de lengagement et des conventions. Ainsi, pour eux, la réalisation dun construit social chez les agents se fait en plusieurs étapes. Dans un premier temps un agent réalise un travail de reconnaissance en identifiant une coopération potentielle. Puis lagent va chercher à former un groupe ou une équipe en sollicitant de lassistance. Il y a formation dun plan social, léquipe négocie alors pour un plan commun. Enfin suit lexécution, phase au cours de laquelle les agents jouent les rôles définis par le plan social choisi. Les conventions, quant à elles, décrivent les circonstances suivant lesquelles un agent doit reconsidérer son engagement, cest-à-dire la manière dont un agent avertira les autres s'il se désengage ou si le statut de son engagement change. Ainsi, Woolridge et Jennings envisagent le processus de coordination comme étant la somme des engagements, des conventions sociales, et du raisonnement local.
Enfin, Sichman (1995 ; Conte et Sichman, 2002) introduit la notion de dépendance sociale entre agents. Un agent Ai dépend dun agent Aj pour réaliser le but p si Ai nest pas capable de réaliser intégralement le but p alors que Aj est, lui, capable de le réaliser au moins en partie. Nous considérons alors un contexte relationnel, les relations sociales étant préexistantes aux engagements. Il s'agit de simuler des agents socialement situés, qui se trouvent dans un réseau de relations (ou un réseau daccointances).
Le réseau social (lorganisation)
Comme nous lavons souligné dans lintroduction, la structure sociale G, autrement appelée le réseau social ou la structure des relations entre les entités dun modèle, est déterminante sur le comportement du modèle (Axtell, 2000a). Ce réseau social est ainsi souvent introduit dans les modèles de simulation sociale pour modéliser une influence sociale locale ou un accès limité à linformation. Alan Kirman (1997 ; 1999) souligne en particulier limportance de prendre en compte explicitement le réseau social dans les modèles économiques. Certains modèles, de part le système quils cherchent à modéliser, saffranchissent cependant de cette contrainte pour des raisons assez évidentes. Ainsi dans le modèle démeute de Granovetter (1978) chaque individu a effectivement accès au comportement de tous les autres, le réseau social ou le graphe sous-jacent correspondrait alors à un graphe complet, chaque individu étant lié à chaque autre de la population.
Pour de nombreux autres cas pour lesquels linfluence est locale, il sagit souvent de reconstruire la structure ou le graphe correspondant qui déterminera les relations entre les individus. Cest dans cette optique que se détachent trois cas que nous allons exposer plus en détails : la construction dun graphe à partir dun espace social sous-jacent dans lequel sont situés les individus ; la construction dun graphe indépendant des individus sur lequel les individus sont pour ainsi dire posés ; enfin la construction dun graphe qui serait plongé dans un espace social, cas hybride des deux premières approches énoncées.
Réseau social construit à partir dun espace social
Le principe général de cette approche consiste à reconstruire un espace social dans lequel chaque individu sera localisé. Cet espace peut intégrer une composante spatiale (Nowak et Vallacher, 1998) ou des dimensions socio-économiques. Une généralisation de la construction dune métrique sociale est proposée par Banks et Carley (1994). Pour lensemble de ces modèles, le concept dhomophilie est généralement appliqué. Plus les individus sont similaires, plus ils sont proches dans lespace social, plus grande est la probabilité quils soient liés. La construction du réseau social est généralement probabiliste et intègre linéairement la distance euclidienne (ou euclidienne pondérée) des individus dans cet espace.
Dans ce cadre, une dynamique sociale sur le réseau correspondant à la destruction, la création ou simplement lévolution de liens, découle de changements de positions des individus dans lespace social.
Une approche particulière est celle qui consiste à reproduire un espace social correspondant à un espace géographique. La proximité dans cet espace peut être assimilée à une distance géographique. Cette approche est même souvent réalisée sans quil soit prêté de signification particulière à lenvironnement spatial. La distance géographique rend alors une forme de distance sociale existante entre les entités du modèle. Ainsi comme nous lavons vu précédemment pour les modèles de Schelling et de Sakoda, les automates cellulaires sont fréquemment utilisés dans le domaine de la simulation sociale (Hegselmann et Flache, 1998), plus exactement cest la topologie classique des automates cellulaires, topologie en grille ou en tore, qui est utilisée. Il est à noter que les automates cellulaires ne sont pas caractérisés par cette topologie, mais cest sans doute celle qui a été la plus utilisée dans ce champ. Les individus sont alors localisés sur cette grille (ou ce tore) et leur voisinage social est souvent défini à partir de cette grille régulière par un voisinage de Von Neumann ou de Moore (cf. Figure 2.7). Le voisinage de Von Neumann relie une cellule à ses quatre voisins (Nord, Est, Sud, Ouest) et le voisinage de Moore ajoute quatre autres voisins (NE, SE, SO, NO).
Figure 2-7 : Voisinage de Von Neumann (gauche) et de Moore (droite) sur un automate cellulaire
Flache et Hegselmann (2001) ont ainsi testé leur modèle sur différentes structures de ce type ainsi que sur des structures hexagonales ou des grilles irrégulières déterminées à partir dun diagramme de Voronoi (cf. Figure 2.8), ce dernier étant équivalent au choix de plus proches voisins pour une certaine distance.
Figure 2-8 : Structure dinteractions déterminée à partir dun diagramme de Voronoi.
Le modèle p1 (Holland et Leinhardt, 1981) se situe dans le cadre de la reconstruction dun espace social un peu particulier puisque les attributs de lindividu (sa localisation dans cet espace) concernent lespace. Ces attributs sont la tendance de lindividu à créer des relations avec dautres individus, à être choisi par dautres, à faire des choix mutuels et la tendance moyenne à interagir avec les autres. La probabilité dexistence dune relation donnée dépend alors de la valeur des attributs des deux individus en jeu.
Les modèles de variance de degré, quant à eux, dérivent en partie du travail de Blau (1967) sur la théorie de léchange. Ces modèles supposent que les nuds ou les individus ont des probabilités intrinsèques différentes de créer des liens. Les nuds qui possèdent un degré de centralité élevé ont tendance à attirer de nombreux liens, alors que ceux qui ont un degré de centralité plus faible en attirent moins, comme cest le cas pour les réseaux à invariance déchelle (Barabasi et Albert, 1999). Les effets caractéristiques de polarisation ou de balkanisation découlent également de la notion de pouvoir et peuvent être vus comme des variations du modèle de variance de degré. La polarisation intervient ainsi lorsque la population se sépare en deux groupes, chacun étant centré sur un nud spécifique. La balkanisation, quant à elle, intervient lorsque la société se scinde en un grand nombre de groupes, chacun regroupé autour dun nud particulier.
La structure sociale comme graphe indépendant
A un niveau dabstraction élevé, nous pouvons considérer quun réseau social est simplement un graphe, chaque nud correspondant à un individu. Le système multi-agents qui en découle peut ainsi être appréhendé comme étant « posé » sur ce graphe, comme cest le cas par exemple dans la littérature des jeux sur réseaux (Young, 1998). Comme lillustre le schéma (cf. Figure 2.9), la structure conceptuelle des objets est la même que lon considère un graphe : un ensemble de nuds et de liens reliant ces nuds ; ou un réseau social : un ensemble de relations reliant des individus.
Figure 2-9 : Diagrammes conceptuels UML dun graphe et dun réseau social.
Dans ce cadre, une dynamique sur le réseau (création et/ou destruction de liens) découle dun changement des propriétés du graphe ou est réalisée par le biais de processus stochastiques. Il faut noter ici que notre conception du réseau social se différencie singulièrement de représentations alternatives (Van Dyke Parunak et Odell, 2001 ; Amiguet et al., 2002) qui se focalisent davantage sur lorganisation des entités en reprenant le modèle dorganisation Aaladin (Ferber et Gutknecht, 1998) que sur lobjet que représente lensemble des relations.
Graphes aléatoires et graphes réguliers
Le premier modèle qui vient à lesprit dans ce cadre est celui du graphe aléatoire (Erdös et Rényi, 1960). Un graphe aléatoire est défini par un ensemble de N nuds connectés par n liens qui sont choisis aléatoirement parmi les N(N-1)/2 liens possibles. Leurs deux propriétés principales sont une distance géodésique (en nombre de liens) moyenne faible et une redondance peu importante des liens.
Le second modèle relativement classique et traditionnellement opposé au précédent est celui des graphes réguliers, auquel appartient la topologie des grilles et des tores, topologie que nous avons évoquée précédemment. Chaque individu est alors connecté à un nombre fixe de voisins et une régularité est observée dans lordre des individus connectés (cf. Figure 2.10). Ces graphes présentent les propriétés davoir à la fois une distance moyenne entre individus et une redondance des liens élevées (Bollobas, 1985).
Small Worlds
Certains chercheurs ont exhibé empiriquement des graphes qui possèdent à la fois la propriété des réseaux aléatoires davoir une faible distance moyenne entre individus et celle des réseaux réguliers davoir une forte redondance entre les liens. Cest le cas des recherches de Milgram (1967) sur les réseaux dinformation aux Etats-Unis qui exhibent à la fois lexistence de groupes dindividus fortement connectés et la propriété générale médiatisée sous la forme « chaque individu des Etats-Unis est au plus à six poignées de main du président des Etats-Unis ». Cest cette classe de graphe dont Watts et Strogatz (1998) et Watts (1999) proposent une formalisation sous lappellation de Small Worlds. Dans ce but, Watts (1999) propose trois algorithmes pour la génération de réseaux qui se situent entre les réseaux aléatoires et les graphes réguliers.
Le premier modèle, le modèle (, prend pour base le modèle dErdös et Rényi, en accroissant la probabilité p de création de lien, au cours de la génération du graphe, proportionnellement avec la proportion ( damis que les deux individus ont en commun. Cela conduit rapidement à la formation de sous-graphes très connectés au sein du réseau social.
Le modèle ( quant à lui, est construit à partir dune structure de départ qui est régulière. Puis, chaque lien est remplacé par un lien aléatoire avec la probabilité ( (cf. Figure 2.10). Ce modèle permet sur des structures régulières une réduction de la distance moyenne entre nuds, une propriété importante des réseaux aléatoires. Il permet surtout de générer des classes de graphes qui, pour une connectivité donnée, en faisant varier le seul paramètre ( permettent daller de graphes réguliers à des graphes aléatoires, tout en ayant un ensemble de graphes intermédiaires entre ces deux propriétés. Une construction déterministe de ce modèle est proposée par Comellas et Sampels (2002).
Figure 2-10 : Le modèle ( décrit par Watts (1999) permet de générer des graphes situés entre des graphes réguliers (à gauche) et des graphes aléatoires (à droite) en déplaçant des liens de manière aléatoire.
Le dernier modèle proposé par Watts (1999), le modèle ( est relativement similaire au modèle ( mais il ajoute la contrainte que les nouveaux liens créés soient des raccourcis. Les deux nouveaux individus liés ne doivent alors pas avoir daccointances communes. Cette contrainte permet dinterdire la redondance locale lors de la création de nouveaux liens et la distance moyenne entre individus décroît alors plus rapidement quand ( augmente que dans le cas du modèle (. Ces graphes de Small Worlds héritent en un sens de chacune des propriétés des graphes réguliers et des graphes aléatoires, à savoir quils ont à la fois un coefficient de clustering élevé et une distance moyenne faible entre les individus. Pour Axtell (2000b) et Soorapanth et al. (2001) qui ont testé le comportement de leur modèle sur ce type de structures après lavoir testé sur des structures régulières classiques (en général des grilles ou des tores), la structure sous-jacente utilisée influe de manière importante sur le comportement de ces modèles.
Graphes à invariance déchelle
Après nombre danalyses de données empiriques relatives à différents types de réseaux, comme la structure du Web (Barabasi et al., 2000), les réseaux de collaboration scientifique (Barabasi et al., 2002) ou les réseaux métaboliques, Albert et al. (1999) ont exhibé dans plusieurs cas une distribution en loi de puissance des degrés des nuds du graphe, i.e. des graphes à invariance déchelle. Tout en ayant les propriétés de la classe des Small-Worlds proposée par Watts (1999), notamment la tolérance aux pannes (Albert et al., 2000), les modèles proposés jusqualors ne permettaient que difficilement de rendre compte de cette caractéristique particulière et encore moins de lexpliquer. Barabasi (2002) propose alors le modèle dattachement préférentiel (cf. Figure 2.11). Il sagit dun modèle construit de manière itérative en partant dun ensemble de nuds de départ, et en ajoutant au fur et à mesure les nuds suivants, nous ajoutons dans le graphe existant le nombre de liens désirés, de manière stochastique, en donnant aux nouveaux nuds une probabilité plus importante dêtre connectés aux nuds qui ont déjà le plus de liens.
Figure 2-11 : Graphes réguliers (à gauche) homogènes (au centre) et graphe à invariance déchelle (à droite) (Strogatz, 2001)
Modèles de complétion de triades
Les modèles de complétion de triades proviennent originellement des travaux dHeider sur léquilibre social (Heider, 1958). Il applique la théorie de la réduction de la dissonance cognitive de Festinger (1957) au champ relationnel. Ainsi selon sa théorie, les individus cherchent à minimiser les déséquilibres relationnels perçus. Prenons un exemple, si John se considère comme un ami de Jennifer, et que John perçoit que Jennifer est amie avec Bob, alors si John nest pas ami avec Bob, il y a un déséquilibre quil va essayer de corriger. Lobjet utilisé nest plus alors seulement la dyade mais la triade, formée par un groupe de trois individus et des relations existantes entre eux. Le but du modèle est dassigner une probabilité pour la création dun nouveau lien dans la triade en prenant en compte les liens existants. Ce cadre a conduit à une série de modèles tels que le modèle déquilibre dHeider (1946), le modèle de clustering (Davis, 1967), le modèle de transitivité (Holland et Leinhardt, 1971) et le modèle déquilibre positif (Newcomb, 1968). Une comparaison de ces différents modèles pourra être trouvée dans larticle de Johnson (1986).
Modèles pour lesquels des caractéristiques propres aux liens influencent le réseau
Cette dernière catégorie regroupe les modèles dans lesquels les liens ou les relations entre les entités du modèle ont des caractéristiques propres telles que le coût de création, dentretien, le vieillissement ou encore la confiance. Ces caractéristiques sont prises en compte dans le modèle de réseau et son évolution correspond alors à une évolution des caractéristiques de ces liens.
En économie et en théorie des jeux en particulier, le cadre utilisé est celui de la maximisation dune fonction dutilité. Chaque individu a la même fonction dutilité. Cependant, à léchelle de la population, les individus peuvent avoir des ressources différentes à investir, ce qui influe sur leurs comportements. Certains modèles prennent en compte la création et lévolution des relations dans ce cadre (Myerson, 1977). La création ou le maintien de chaque relation a un coût pour lindividu et le partage des gains dépend de la structure du réseau social (Slikker et van den Nouweland, 2001). Il y a alors un dilemme entre construire le moins de relations possibles du fait de leur coût et den construire un certain nombre pour avoir le meilleur accès aux ressources (Bala et Goyal, 1999). Le but est alors détudier le dilemme entre stabilité et efficience des réseaux générés (Jackson, 2001).
Plusieurs modèles incluant la prise en compte de caractéristiques relationnelles ont également fait suite à celui de lattachement préférentiel. Albert et Barabasi (2000) dans le cadre de la modélisation de la dynamique du réseau Internet, proposent ainsi une dynamique de redirection des liens dans le temps. Dorogovtsev et Mendes (2000) proposent dans le même esprit un algorithme stochastique pour lajout de liens entre les sites de plus forte connectivité et pour la suppression de liens existants par vieillissement. Enfin, Amaral et al. (2000) proposent un coût dentretien des liens ou une contrainte de capacité pour la création de nouveaux liens qui freine le processus de distribution suivant une loi de puissance.
Lenvironnement
Mise à part pour introduire des relations sociales liées à un espace géographique comme nous lavons évoqué au paragraphe précédent, lintroduction de lenvironnement E intervient la plupart du temps dans la modélisation de phénomènes sociaux liés à lenvironnement. Quil sagisse de lexploitation de ressources renouvelables ou non (Bousquet et al., 1993 ; Bousquet, 1994) ou du couplage de pratiques sociales et de dynamiques environnementales (Franchesquin, 2001, Franchesquin et Espinasse, 2001), la plupart du temps, linfluence de lenvironnement est locale et propre à chaque individu (lindividu retire alors classiquement des produits de lenvironnement ou détermine des variables denvironnement qui interviennent dans le calcul de son utilité propre). Leffet de lindividu sur lenvironnement est quant à lui souvent un acte de consommation de ressources contenues dans lenvironnement, (Bousquet et al., 1993, Epstein et Axtell, 1996) à lexception du cas déjà exposé dans lequel lindividu se sert de lenvironnement comme média pour communiquer. Cependant, si linfluence de lenvironnement sur lindividu et de lindividu sur lenvironnement est locale (par rapport à lindividu), ceci nexclue pas la possibilité, souvent exploitée du reste, davoir des échelles de perceptions ou dactions différentes dans la population. La principale caractéristique de la composante environnementale dans ces modèles est bien que lindividu a une relation (perception ou action entre autres) personnelle, propre, à lenvironnement, relation qui dépend bien souvent de ses variables détat (localisation ou type dagent par exemple).
Généralement et comme dans la plupart des simulations individus-centrées en écologie, cet environnement est discret et régulier. Un cas particulier (Takadama et al., 2003) est celui pour lequel lenvironnement nest pas un environnement spatial, géographique mais un environnement informationnel dans lequel se déplacent les individus, qui sont influencés localement par linformation portée par lenvironnement. Il nous faut cependant souligner ici que dans le cadre de modèles de systèmes écologiques, lenvironnement prend une place beaucoup plus centrale dans la plupart des simulations (Coquillard et Hill, 1997 ; Soulié, 2001 ; Bian, 2003). Cependant, si en pratique les entités peuvent influer sur létat de lenvironnement, son état est également souvent modifié par une dynamique propre (extension des fronts de forêts par exemple) ou par des éléments exogènes (séries temporelles de tremblements de terre par exemple). Il nous faut noter ici que notre exemple dapplication concernera des modèles individus-centrés sociaux non-spatialisés, par conséquents certains éléments particuliers dus à lintroduction particulière dune composante environnementale pourront avoir été passé sous silence.
Facteurs exogènes au modèle
Une des contraintes fortes en termes de modélisation des phénomènes sociaux concerne enfin la clôture du système. Il faut pouvoir déterminer les frontières du système que lon modélise. Laspect ouvert de la plupart des systèmes sociaux est alors rendu par lajout de facteurs exogènes S, extérieurs donc au système modélisé et qui interviennent cependant sur sa dynamique. Le cas typique dans les modèles hydrologiques correspond aux séries temporelles de pluviométrie qui vont « nourrir » le modèle au cours de la simulation. Cest aussi le cas des institutions dans de nombreux modèles en simulation sociale (Deffuant et al., 2002b ; Conte, 2001 ; Lifran et al., 1998) qui interviennent comme un facteur exogène par exemple par le biais de scénarios institutionnels qui vont diffuser des messages au modèle en cours de simulation. Nous distinguons ici deux types de facteurs exogènes, les facteurs exogènes partagés qui sappliquent de manière identique à lensemble de la population du modèle et auxquels chaque individu a accès et les facteurs exogènes discrets qui interviennent pour une partie de la population et/ou qui ont une influence ou un message distinct suivant lindividu qui y a accès.
Ainsi parmi les facteurs exogènes partagés, le mode dans Orléan (1995) et Epstein (2001) reflète une influence de type collectif sur chaque individu et qui est prise en compte dans la mise à jour de létat de ceux-ci.
En ce qui concerne les facteurs exogènes discrets, nous pouvons citer par exemple le cas des institutions émergentes (Conte, 2001 ; Amblard et Ferrand, 2000) et celui des institutions connectées avec une partie seulement de la population (Deffuant, 2001).
Concernant plus particulièrement les modèles de dynamiques dopinions qui sont notre principal intérêt, la théorie de Zaller (2002) reprise par Chomsky et Herman (2003) sur la dynamique de lopinion publique est celle dune influence de lélite et des médias, donc typiquement des facteurs exogènes dune population particulière. Les médias sont de type partagé et lélite de type discret, cette dernière est liée à une partie seulement de la population considérée. Lélite et les médias envoient donc des messages à la population, qui construit son opinion en fonction de sa sensibilité personnelle et des messages quelle reçoit, ou plus exactement en fonction de linterprétation quelle construit de ces messages.
Conclusion
Dans ce paragraphe, après avoir présenté en quoi consistait une approche de modélisation individus-centré, à savoir principalement en la focalisation du modélisateur sur les entités du système modélisé, nous avons décrit ses intérêts et ses inconvénients. Nous pourrions résumer ceux-ci brièvement en rappelant que le principal intérêt de lapproche est de pouvoir réaliser et tester des hypothèses réalisées au niveau individuel et que son principal inconvénient est la compréhension du comportement global du modèle résultant et donc le besoin dadopter une approche expérimentale sur le modèle lui-même pour comprendre son fonctionnement.
Nous avons ensuite caractérisé un méta-modèle possible dune simulation sociale individus-centrée. Cette forme prototypique générique nous a permis didentifier clairement les éléments saillants qui peuvent composer un modèle et qui peuvent donc permettre la compréhension de son fonctionnement. Dans ce cadre donc, nous avons considéré quun modèle M={A, G, E, S, T} pouvait être composé :
- dune population dindividus A qui peut être considérée comme une distribution de vecteur détats X={Xi} et une distribution de fonctions de transition associées. Lhypothèse dune population de comportement homogène (même fonctions de transition et même forme des vecteurs détats) est souvent réalisée et lévolution de la population au cours du temps peut être souvent envisagée comme lévolution dune distribution de vecteurs détats ;
- dun graphe dinteractions G qui contraint les interactions entre les entités du modèle ;
- dun environnement E dans lequel les entités peuvent être situées ;
- dun ensemble de facteurs exogènes S ;
- dune représentation et dune gestion du temps T associée au modèle ;
- et enfin de couplages entre ces différentes entités, couplages qui nous empêchent dappliquer le réductionnisme pour une compréhension totale du modèle.
Nous avons exprimé ensuite plusieurs types classiques de modèles connus dans le cadre de ce méta-modèle : la microsimulation, les automates cellulaires et la simulation orientée-objet et multi-agents. Et nous avons par la suite utilisé celui-ci comme grille de lecture pour présenter les modèles rencontrés dans la littérature en examinant particulièrement, composante par composante les principales différences entre ces modèles. Nous avons ainsi, par exemple, présenté les différents types de représentation et de gestion du temps dans la simulation, les différents types de décision qui pouvaient être associées à la fonction de transition des individus et les différents types de graphe dinteraction sous-jacents qui pouvaient être rencontrés dans la littérature.
Ce méta-modèle nous servira de nouveau dans la partie suivante pour lapplication de méthodes génériques pour la compréhension du fonctionnement dun modèle de simulation sociale individus-centré.
A propos des recherches du docteur Semmelweis sur lorigine des fièvres puerpérales
« Sachant déjà par lexpérience précédente que sur les étudiants spécialement sétendait une malédiction, il observa ces derniers de très près, de plus en plus près dans toutes leurs allées et venues, dans tous leurs gestes. En même temps, il se souvint [
] de ces coupures cadavériques souvent mortelles que se font ces mêmes étudiants avec des instruments souillés. Ses idées se précipitent. Dans les jours qui suivent, il demande à Rokitansky de lui adjoindre le docteur Lautner afin quil puisse pratiquer à ses côtés des autopsies et des coupes de tissus cadavériques, sans avoir dailleurs de cadre préconçu pour ces recherches histologiques. En somme, des « expériences pour voir », comme le dire plus tard Claude Bernard. A cet instant il est si près de la vérité quil est en train de la circonscrire. Il en est encore plus près quand il imagine de faire pratiquer le lavage des mains à tous les étudiants avant quils nabordent les femmes enceintes. On se demande le « pourquoi » de cette mesure, elle ne répondait à rien dans lesprit scientifique de lépoque. Cétait une pure création. »
Louis-Ferdinand Céline, Thèse de doctorat de Médecine, Semmelweis.
Méthodes pour une meilleure compréhension des modèles
Introduction
Dans cette partie nous allons aborder les méthodes que nous avons utilisées ou mis au point pour mener à bien notre étude. Cette partie est centrée particulièrement sur la compréhension des modèles de simulation. Ainsi, nous avons choisi de nous référer à un schéma du processus de modélisation souvent utilisé, bien que rarement explicité. Wagner et al. (1996) proposent ainsi un découpage du processus de modélisation en trois parties (cf. Figure 3.1) :
- La modélisation, envisagée comme production dun modèle computationnel,
- Lexpérimentation comme production de résultats expérimentaux sur ce modèle,
- Lanalyse des résultats expérimentaux produits.
Figure 3.1 : Organisation du processus de modélisation en trois étapes Modélisation, Expérimentation et Analyse, proposée par Wagner et al. (1996).
Ce schéma mérite dêtre davantage explicité par rapport à notre étude. Ainsi, le processus de modélisation correspond plus particulièrement, et assez classiquement, à un processus qui se décline en observation dun système, détermination de la question de modélisation et des hypothèses de modélisation, puis formalisation du modèle pour finir par son implémentation et sa vérification. Nous pourrions y ajouter dautres étapes que nous naborderons pas ici puisque notre but principal est bien de comprendre le fonctionnement dun modèle donné que nous considérons comme correctement implémenté (le programme source qui en résulte correspond au modèle conceptuel défini).
Lexpérimentation, quant à elle, peut être vue sous différentes formes. Nous pouvons envisager dans un premier temps la focalisation sur une expérience seule, en insistant particulièrement sur la visualisation du processus (Hill, 1996). Tout dabord nous pouvons prendre en compte un seul individu ou une seule entité du modèle et en analyser la trace pour savoir si les hypothèses de modélisation réalisées au niveau microscopique sont satisfaisantes et si elles sont correctement implémentées (vérification) (Kleijnen, 1995). De plus, ce type de focalisation sur une expérience seule peut également permettre, en analysant le comportement macroscopique du modèle, de réaliser non seulement une vérification de celui-ci (Kleijnen, 1995) mais également dobserver ses comportements typiques (analyse qualitative) et de déterminer les indicateurs qui peuvent les synthétiser. Dans cette optique, la trace de lévolution des attributs individuels nest pas la seule alternative puisque la visualisation des transitions de phases sur une seule simulation peut également être prise en considération et visualisée efficacement (Burtsev, 2003).
La seconde focalisation concerne une expérimentation plus systématique (Kleijnen, 1987) qui, sappuyant sur les comportements qualitatifs identifiés et les indicateurs construits, permet dacquérir une connaissance plus générale du comportement du modèle sous différentes conditions (exploration de lespace des paramètres par exemple). Dans ce cas, la visualisation de la dynamique des simulations est moins importante. Elle correspond davantage à une exploration en aveugle des simulations qui sappuie sur les indicateurs construits. Postérieurement, la visualisation comme animation des résultats est alors employée (Bell et OKeefe, 1987) par exemple dans le cadre dune analyse spectrale des populations de simulation (Hill, 2000). Il nous faut noter ici que ces deux focalisations ne sont absolument pas contradictoires ; elles sont complémentaires et leur complémentarité est même essentielle pour la compréhension du modèle comme souligné par Drogoul (2000).
Les buts de la phase danalyse correspondent à deux questions principales : la compréhension du fonctionnement du modèle et la qualité du modèle. Concernant ce dernier point, la question peut porter sur deux niveaux. Au niveau global : est-ce que le modèle correspond aux phénomènes observés, aux attentes du modélisateur ? Si cest le cas, est-ce pour les bonnes raisons ? Est-ce que les comportements valides observés au niveau global correspondent bien aux hypothèses réalisées au niveau individuel et ne sont pas dus à des biais de la simulation ? Ces préoccupations ont été largement traitées autour des questions de la vérification et de la validation (Hill, 1995 ; Kleijnen, 1995 ; Hill et al., 1996 ; Balci, 1998). Nous nous intéresserons davantage ici à lanalyse des modèles dans le but de comprendre leur fonctionnement et non pas pour exprimer la validité des modèles pour traiter une question particulière sur un système réel, ce qui est le but des techniques de validation.
Concernant les relations entre les différentes phases, la relation entre analyse et expérimentation peut être envisagée dans deux buts. Le premier correspond à un manque dinformation pour mener lanalyse complètement, il sagit dès lors de mener davantage dexpérimentations, de raffiner lexploration pour mieux comprendre le modèle. Le deuxième but correspond à nouveau à la qualité du modèle, et à des phénomènes classiques de calage de modèle ou de validation (Rykiel, 1996 ; Balci, 1998), envisagés cette fois sous un aspect plus dynamique comme un aller-retour entre expérimentation et analyse.
La relation entre analyse et modélisation est, elle aussi, bivalente. La première correspond à un but de compréhension du modèle, notamment dans le cas où nous ne parviendrions que difficilement à comprendre le modèle existant. Il peut être nécessaire alors de réaliser un modèle plus simple ou de décomposer le modèle existant pour appliquer lensemble du schéma à des parties plus facilement compréhensibles du modèle. Ainsi, nous profitons de la connaissance acquise sur ces modèles simplifiés pour comprendre plus facilement le modèle global. La deuxième liaison entre analyse et modélisation correspond à lobtention dun bon modèle par rapport aux objectifs fixés ou par rapport à la question de modélisation soulevée. Cette préoccupation est traitée plus spécifiquement dans le cadre des méthodologies de conception de modèles (Gourgand, 1984 ; Hill, 1993). Il peut sagir dès lors de complexifier le modèle pour y inclure davantage dhypothèses et se rapprocher ainsi progressivement dun modèle plus réaliste. Mais il peut également sagir de simplifier le modèle pour tester la généricité des résultats obtenus. Concernant ce dernier point, lorsque nous obtenons certains résultats sur un modèle donné, nous pouvons nous poser la question de savoir si nous pouvons également les obtenir pour un modèle plus simple et ainsi vérifier lorigine précise du phénomène observé. Quelquesoit le but, il est important de préciser que le changement de formalisme ou de technique de modélisation peut être un grand avantage, comme souligné par Grimm (1999) et Duboz et al. (2003a ; 2003b).
Au cours de ces différentes étapes, les techniques de visualisation et danimation des résultats de simulation jouent un rôle important. Sans doute parce quune représentation graphique est plus facilement appréhendable que des séries de chiffres (Weber, 1993), de nombreux travaux, autour dune approche WYSIWYG (What You See Is What You Get) concernent lintroduction de techniques graphiques en simulation, soit pour animer les résultats de simulation (Bell et OKeefe, 1987) soit pour accroître linteractivité entre le simulateur et lutilisateur (Campos, 2000). Ces techniques interviennent pratiquement à chacune des étapes du processus de modélisation, que ce soit la vérification, la validation (Shannon, 1986 ; Gipps, 1986), lanalyse, la conception dexpérimentations ou la présentation des résultats (Hill, 1996).
Il faut noter que dautres processus de modélisation ont été publiés (Gourgand, 1984 ; Hill, 1993 ; Tanguy, 1993) mais que la plupart dentre eux se focalisent davantage sur la construction du modèle, en incluant par exemple les phases de modélisation conceptuelle, dimplémentation du modèle informatique, de vérification de celui-ci et de validation par rapport à la problématique de modélisation. Même si ces processus sont extrêmement utiles, en particulier dans le cadre de la réalisation de modèle de simulation sociale individus-centrée, nous avons préféré celui de Wagner et al. (1996) qui a le mérite de faire figurer explicitement lexpérimentation comme une étape en tant que telle du processus de modélisation. De plus, ce processus est suffisamment simple pour permettre de considérer à un niveau dabstraction plus élevé létape correspondant à la modélisation comme étape de réalisation dun modèle, celle-ci nétant pas le point central de notre propos.
Organisation de cette partie
Dans cette partie, nous allons insister sur les méthodes qui vont nous permettre de comprendre le fonctionnement, le comportement dun modèle individus-centré et gérer les différents aspects afférents.
Dans un premier temps, nous exposerons les aspects correspondant à lexpérimentation sur des modèles numériques en revenant tout dabord sur le statut du modèle de simulation comme objet dexpériences. Nous aborderons ensuite les différents points de vue que nous pouvons prendre pour observer le comportement dun modèle, points de vue que nous exposerons plus en détail (focalisation sur lindividu, puis sur la population au sein dune expérience, puis sur la caractérisation dune simulation et enfin sur lobservation dune population de simulations). Nous reviendrons ensuite sous un aspect méthodologique sur la navigabilité entre ces différents points de vue pour comprendre la simulation.
Dans une deuxième partie nous aborderons la multi-modélisation ou le développement de collections de modèles pour comprendre le fonctionnement dun modèle donné. Nous étudierons ainsi tout dabord les collections de modèles relatives à la gestion de la complexité au sein dun modèle, puis nous évoquerons lapport du changement de formalisme pour la compréhension dun modèle.
Mais nous allons tout dabord revenir sur la notion de simulation envisagée ici comme objet dexpérimentation.
Compréhension du fonctionnement dun modèle par lexpérimentation
La simulation : du modèle à lexpérience virtuelle
Concernant lutilisation de la simulation, une des principales préoccupations réside dans la validité du lien entre lobjet construit (le modèle) et le système quil représente. Pour valider ce lien, la méthode consiste à comparer les résultats de simulation aux mesures réalisées par expérimentation ou observation sur le système réel.
Malgré cela, le problème nest pas résolu par la simple comparaison entre deux séries de données. En effet, le problème réside souvent dans le fait que le modèle de simulation construit nest pas toujours directement intelligible pour son créateur. Le processus de construction dun modèle individus-centré consiste ainsi à préciser les comportements des individus, les règles dinteractions entre ces individus et les règles organisationnelles. Cependant, le lien entre ces comportements locaux et les comportements globaux mesurés nest pas toujours compréhensible, même pour le réalisateur du modèle. Pour lexpliciter clairement, il faut réaliser des expérimentations directes sur le modèle computationnel. Dans cette perspective, les simulations ont pour objectif premier de faire progresser la connaissance du fonctionnement du modèle, avant de faire progresser la connaissance du phénomène représenté.
Ainsi, la connaissance totale des mécanismes les plus intimes de ces modèles ne permet pas den comprendre le comportement global. Cette caractéristique, souvent associée à une certaine conception de la complexité (Von Neumann et Burks, 1966 ; Dupuy, 1994), permet denvisager pleinement le modèle comme objet dexpérimentation, au même titre quun phénomène naturel.
La machine de Turing a un fonctionnement dont les règles sont simples et aisées à expliciter. Cependant, lensemble de ses comportements possibles (notamment le fait quelle sarrête ou pas en prenant certaines entrées) est infiniment plus difficile à expliciter, puisquil échappe à toute formalisation récursive. La complexité au sens de Von Neumann est fortement inspirée par cette découverte. En effet, selon sa définition (Von Neumann et Burks, 1956), une machine est complexe si lensemble de ses comportements possibles est infiniment plus difficile à caractériser que ses règles de fonctionnement. Ainsi, une machine très compliquée comme une centrale nucléaire, nest pas complexe dans le sens de Von Neumann car lensemble de ses comportements est réduit : provoquer la réaction de fission contrôlée afin de produire de la chaleur.
La complexité de certains modèles computationnels justifie leur statut dobjets dexpérimentations : leurs règles de fonctionnement, bien que totalement spécifiées par le programmeur, ne permettent pas de déduire leur comportement. Il est donc indispensable dobserver ce comportement par lexpérimentation, pour tenter éventuellement de produire une forme de théorie, plus compacte, de ce fonctionnement. Cet « objet » créé par lhomme est donc opaque à son propre créateur, qui doit appliquer une démarche scientifique pour comprendre sa propre création. Cette dernière devient pour lui équivalente à un phénomène naturel quil cherche à comprendre.
Cette situation prend lallure dun curieux retournement lorsquon lobserve à la lumière de la thèse de Hannah Arendt sur « lHomo Faber » (1958). Pour résumer cette thèse, les sciences expérimentales (qui font la spécificité des sciences modernes) correspondent à une situation où lhomme ne comprend que ce quil fabrique. Il lui faut fabriquer la nature pour la comprendre. Le laboratoire scientifique, en tant que structure, est le lieu de fabrication de phénomènes particuliers, contrôlés, qui peuvent alors être compris. Cest ainsi que les sciences fabriquent des modèles des phénomènes naturels, et les rendent alors accessibles à la compréhension humaine. Lidée centrale de la thèse dHannah Arendt est que la découverte de règles de fonctionnement intime des phénomènes, nécessaire pour les fabriquer voire les répliquer, permet daccéder à leur compréhension et à la prédiction de leur comportement. Or, maintenant que lhomme fabrique des objets complexes au sens de Von Neumann, ce schéma est mis en défaut. En effet, la fabrication même de lobjet et de ses règles de fonctionnement propres, ne donne pas forcément accès à la compréhension de son comportement.
Cependant, ce comportement dun système complexe artificiel peut faire lobjet dune enquête scientifique classique, et ainsi donner lieu à lélaboration dun second modèle, qui donne à lexpérimentateur des clés plus accessibles et permet notamment de prédire correctement le comportement du premier modèle. Les créations humaines dont les règles de fonctionnement sont totalement connues, comme les modèles computationnels, peuvent donc devenir des objets dinvestigation expérimentale. La simulation acquiert alors le statut dexpérimentation au même titre que lexpérimentation classique de laboratoire. Elle a simplement lieu dans un laboratoire « virtuel ».
Nous pourrions donc nous attendre à ce que la question du dispositif expérimental à mettre en uvre dans le cadre de ces simulations fasse lobjet dune réflexion poussée dans la communauté de modélisation individus-centrée. En fait, à notre connaissance, ce nest pas vraiment le cas. Au contraire, certains constats (Grimm, 1999) dénoncent le manque de temps et defforts passés à tester le modèle après son élaboration : généralement quelques simulations sont sommairement comparées à quelques données.
Cependant, nous pouvons identifier des particularités de lexpérimentation sur des modèles computationnels (comparée à lexpérimentation sur des systèmes physiques par exemple). Tout dabord, le modèle computationnel offre lavantage énorme de facilement permettre dune part une automatisation des expérimentations, dautre part la mesure de résultats qui ne subissent pas les biais de mesures classiques lors dexpérimentations sur des systèmes réels. Par ailleurs, les expérimentations sont faites dans lobjectif dobserver des régularités dans le comportement global du modèle, et de les lier à certaines autres variables, facilement interprétables, décrivant le modèle. Cet objectif particulier requiert de pouvoir exprimer les résultats globaux obtenus selon différents angles.
Ainsi même pour un « petit modèle », nous constatons la nécessité de pratiquer un grand nombre dexpérimentations pour établir correctement une certaine compréhension de son comportement global. Insistons sur le fait que cette compréhension est nécessaire comme préalable à la question plus classique de ladéquation du modèle à des phénomènes particuliers, sociaux en loccurrence. Nous comprenons à travers cet exemple lintérêt dun outil permettant de rendre ce travail plus systématique et de capitaliser sur les expériences passées.
Nous défendons une approche expérimentale de la simulation individus-centrée. Nous justifions cette position par la complexité des modèles computationnels, en particulier à cause de la déconnexion entre dynamiques individuelles et phénomènes collectifs. Une démarche expérimentale est donc nécessaire afin détablir les liens entre des variables agrégées décrivant le modèle globalement. A partir de la constatation expérimentale de tels liens, des modèles théoriques au niveau global peuvent être proposés. Cependant, la littérature fait plutôt apparaître un déficit de rigueur et de systématisation dans les expérimentations numériques sur les modèles individus-centrés.
Différents points de vue sur lobjet dexpérimentation
Les modèles informatiques, particulièrement les modèles individus-centrés, présentent des comportements globaux que la connaissance complète des mécanismes individuels implémentés ne permet pas de prévoir. La compréhension du comportement du modèle nécessite donc de pratiquer des expérimentations (des simulations) sur celui-ci. Le modélisateur doit donc se doter des méthodes et des outils particuliers de lexpérimentateur et les adapter à ses expériences virtuelles.
Ainsi la première question légitime que nous pouvons nous poser face à un objet dexpérimentation concerne ce quil est possible et pertinent de mesurer sur cet objet pour la compréhension de son fonctionnement. Le fait que cet objet soit totalement accessible à la mesure et que la mesure soit non invasive (pas de perturbation du comportement de lobjet par la mesure) est un atout certain. Nous allons ainsi successivement aborder différents points de vue que nous pouvons prendre sur la simulation pour comprendre son fonctionnement. Ces points de vue sarticulent les uns avec les autres et sont dune nécessaire complémentarité :
- Observer et mesurer lindividu dans la simulation : en effet, si les règles de fonctionnement de cet individu sont spécifiées par le programme de simulation en terme de processus de traitements dinformation en entrée, de changement détats correspondant en interne et de génération dinformation en sortie, les influences auxquelles est soumis lindividu (le contexte de son évolution) ne sont pas connues dans leur totalité. Nous le verrons, observer lévolution individuelle peut amener à une réflexion non seulement sur la pertinence du modèle de lindividu mais surtout à une connaissance sur la manière dont se comporte lindividu au sein de la simulation. A travers cette observation, le modélisateur peut dégager ainsi peu à peu une connaissance sur les comportements possibles de chaque entité Ai du modèle.
- Observer et mesurer les individus dans la simulation : pour généraliser lapproche précédente, il est également intéressant de considérer lévolution de la population dindividus A dans son ensemble. En premier lieu, ce point de vue permet une compréhension des comportements collectifs possibles au sein du modèle (agrégation des individus, dispersion, comportements périodiques). Par rapport au point de vue précédent il permet de comprendre le lien qui existe entre comportements individuels et comportements collectifs.
- Observer et mesurer les différents éléments du modèle : dans le cadre du méta-modèle M={A,G,E,S,T} énoncé précédemment, il est également nécessaire de ne pas se focaliser uniquement sur la population des individus mais également de manière indépendante sur les autres éléments qui composent le modèle et qui sont susceptibles dévoluer au cours de la simulation. Ainsi lévolution du graphe dinteractions, et de lenvironnement sont deux points de vue complémentaires à lévolution de la population et dont lobservation peut participer à la compréhension du modèle.
- Observer et mesurer les couplages existants au sein du modèle de simulation permet de comprendre les articulations qui existent entre les différents éléments. Etudier la relation qui existe entre évolution de la population et évolution du graphe dinteractions ou entre gestion du temps et évolution de la population sont encore une fois des éléments à considérer, sils sont pertinents compte tenu du modèle, pour la compréhension du fonctionnement de ce dernier.
- Caractériser la simulation : ce point de vue particulier consiste à extraire les éléments saillants qui permettent de caractériser le comportement dune expérience particulière. Il prend particulièrement son sens dans le cadre de la comparaison de deux expériences, deux simulations mais également dans le cadre de lexercice difficile dextraction de connaissance synthétique sur un phénomène complexe. Ce point consiste ainsi en partie en lélaboration dindicateurs pertinents qui permettent la caractérisation, voire la classification dune expérience de simulation particulière ou plus généralement la situation dune simulation donnée dans son espace des phases, lensemble de ses états possibles.
- Généraliser lobservation des simulations : en partant de létape précédente, il faut généraliser ou organiser la connaissance acquise à partir dune base dexpériences. Cela correspond souvent, en ayant par exemple recours aux plans dexpérience, à obtenir une connaissance sur le comportement du modèle sous différentes conditions et à relier ce comportement synthétisé aux variations de conditions étudiées.
- Navigabilité et complémentarité entre les points de vue. Le processus délaboration de connaissances sur le fonctionnement dun modèle ne suit pas de manière incrémentale les différents points de vue énoncés mais correspond davantage à des allers-retours entre ces différents aspects pour construire une image satisfaisante du comportement du modèle et comprendre larticulation entre les points de vue.
Plusieurs fois dans ces processus nous aurons à mettre en place un même schéma de fonctionnement (cf. Figure 3-2), qui correspond à un schéma expérimental classique, à savoir le choix dune mesure, lobservation (la mesure ou lensemble de mesures effectuées), lanalyse de lobservation et un éventuel changement de la mesure effectuée.
Figure 3-2 : Construction de la mesure sur le modèle.
Nous allons ainsi dans les paragraphes suivants aborder chacun de ces points de vue particuliers, leur élaboration (en particulier la visualisation et la mesure de ceux-ci) et leur gestion.
Nous pourrons avoir cependant besoin dun certain nombre de notations supplémentaires pour éclaircir notre propos. Ainsi, nous réutiliserons les notations du méta-modèle pour tout ce qui touche au modèle en distinguant une partie de celui-ci, les paramètres du modèle, qui correspondent à des variables dont la valeur est gardée constante au cours dune simulation, que nous noterons P={Pi}. Ces différents paramètres peuvent intervenir dans plusieurs des sous-modèles (la connectivité moyenne du graphe dinteraction, le nombre dindividus dans la population). Seul leur statut de paramètre à un moment donné (variables dont nous voulons tester linfluence sur le modèle) nous amènera à les noter ainsi. Dans le cas contraire, ils seront considérés comme inclus dans la définition formelle du méta-modèle.
Nous garderons la notation X(t)={Xi(t)} lorsque nous parlerons de la distribution des vecteurs détats et X(0) lorsque nous parlerons des distributions initiales des vecteurs détats.
Les mesures réalisées sur une expérience particulière correspondent à lapplication dune mesure m sur un ensemble dobservables de la simulation (en particulier, la distribution des vecteurs détats X(t)). Elles seront considérées comme un ensemble de réponses du modèle à un ensemble de valeurs de paramètres donné. Ces paramètres seront notés Pa et les réponses R(M, Pa, m)={Rk(M, Pak, m)} où Pak correspond à un ensemble de valeurs fixées pour chaque paramètre et Rk à un ensemble de réponses (les modèles étant généralement stochastiques) à cet ensemble de valeurs de paramètres. En dautres termes R(M, Pa, m) sont les réponses données par le modèle M lorsque nous considérons que les paramètres (dont nous cherchons à étudier linfluence) Pa ont la valeur Pak et que nous appliquons la mesure m.
Observer et mesurer lindividu dans la simulation
Si nous choisissons de nous focaliser sur le comportement individuel, les buts peuvent être la vérification du modèle de lindividu (est-ce que le programme exécute bien ce qui correspond au modèle conceptuel ?), létude du modèle individuel (identifier les couplages qui existent entre les variables détats du modèle individuel), lidentification des plages de variations des variables, létablissement des comportements typiques de lindividu et une variabilité de ces comportements. Pour réaliser ces buts, nous pouvons décider de prendre plusieurs types de mesures.
Tout dabord si nous considérons un individu isolé dans la population, nous pouvons choisir de mesurer lévolution de tout ou partie de son vecteur détat m(t)=Xi(t) au cours du temps dans la simulation. Cela revient à suivre lévolution des variables internes dun individu. Ce type dobservation, si nous mettons en regard les mesures dune composante mj(t)=Xij(t) et celles dune composante mk(t)=Xik(t) permet notamment de vérifier ou de déterminer plus précisément les couplages internes au modèle individuel. De plus, une étude de périodicité des comportements individuels peut être menée. Nous pouvons également regarder les corrélations liées à linitialisation de lagent en observant des représentations du type m(t)=Xij(t)=f(Xij(0)). Dans le même registre, une enquête intéressante consiste à déterminer lensemble des états atteignables des agents à partir dune position donnée (la position Xi(0) à linitialisation par exemple).
Un autre type de mesures concerne les changements détats de lagent et leur évolution au cours du temps, EMBED Equation.3 . Dautres types de variations à dautres degrés peuvent également être mesurés. En particulier des visualisations du type Xi(t+1)=f(Xi(t)) peuvent être intéressantes (elles sont notamment utilisées pour la visualisation dattracteurs étranges).
Cependant notons bien ici que toutes ces mesures et leur analyse, si elles nous donnent des indices sur le fonctionnement du modèle, ne peuvent être utilisées seules sans référence à un autre point de vue (le comportement de la population par exemple).
Un autre niveau de mesure consiste alors en effet à prendre en compte plus explicitement le contexte dans lequel évolue lindividu et non plus seulement sa réponse à ce contexte ou lévolution de celle-ci. Ainsi, un autre moyen de suivre lindividu dans le modèle est de le considérer de nouveau comme une boîte noire qui reçoit des messages en entrée (ou lit des valeurs) et qui adopte des comportements, change détat ou envoie des messages en sortie. Lanalyse de la trace dun individu consiste ainsi à mettre en regard les valeurs récupérées en entrée par lindividu et la réponse (changement détat, comportement adopté) en retour. Une légère variante qui peut être adoptée, en particulier dans les modèles dinfluence discrète, consiste à comparer les valeurs récupérables en entrée, linfluence potentielle à laquelle est soumis lindividu par exemple, et la réponse de celui-ci (cf. Figure 3-3).
Figure 3.3 : a) Suivi de la trajectoire dun individu particulier de la population dans notre modèle de dynamique dopinions (Deffuant et al., 2002a). Laxe des abscisses représente le temps et laxe des ordonnées représente lopinion. Linfluence moyenne reçue par les individus est représentée par un code couleur. Dans ce cadre le graphe dinteraction sous-jacent est complet, chaque individu peut interagir avec nimporte quel autre. b) Représentation de linfluence moyenne reçue par individu sous la forme dun vecteur (en direction de linfluence maximum reçue), dans le même modèle mais sur une grille avec un voisinage de Von Neumann.
Il nous faut noter ici, que nous ne différencions pas réellement la mesure m de sa représentation. A une mesure donnée ou à un ensemble de mesures donné, plusieurs types de représentations sont ainsi possibles et la récupération des données de mesure est également possible pour un post-traitement sous un logiciel de statistiques par exemple. Nous considérons alors que nous effectuons simplement une mesure sur le modèle, la représentation de cette mesure pouvant être réalisée sous de multiples formes. Néanmoins nous aurons loccasion dans cette partie de présenter un certain nombre de visualisations différentes qui pourront éclairer le lecteur sur les visualisations possibles des différentes mesures réalisées. Le lecteur peut également consulter Shannon (1986), Gipps (1986), Bell et OKeefe (1987), Hill (1996 ; 2000), Campos (2000) et Burtsev (2003) sur ce point.
Ainsi, par le suivi de comportements individuels au cours dexpériences de simulation répétées, le modélisateur se fait une idée de la manière dont réagissent et évoluent ses entités individuellement, soumises à des influences extérieures. Cependant, nous le rappelons, la connaissance ou la vérification réalisée à ce niveau na vraiment dintérêt que dans un cadre dutilisation plus large où le modélisateur combine plusieurs points de vue sur le modèle.
Observer la population dans la simulation
Pour comparer des observations réalisées au niveau individuel, nous pouvons bien sûr considérer lensemble de la population. Nous distinguerons deux types de mesures que nous pouvons effectuer. Les premières mesures concernent la population vue comme une somme dindividus, les secondes mesurent la population comme une entité collective singulière.
La population : une somme dindividus
Nous ne considérons ici plus un seul individu, mais plusieurs, voire lensemble des individus compris dans la population. Les mesures qui peuvent être appliquées à ce stade sont une généralisation des mesures évoquées dans le cas individuel. Soit il sagit directement de considérer lensemble des mesures individuelles, par exemple lévolution de lensemble des vecteurs détats au cours du temps m(t)=X(t) ou dune sous-partie de ces vecteurs EMBED Equation.3 . Soit il sagit dappliquer des opérateurs simples (moyenne, écart-types) à lensemble de ces vecteurs détats EMBED Equation.3 .
Observation de lévolution de la population comme un phénomène collectif
Le second aspect sous lequel nous pouvons observer lensemble des individus de la population consiste non plus à le voir comme une somme (par exemple une somme de trajectoires individuelles) mais denvisager la réponse fournie par le modèle comme lexpression dun phénomène collectif. Cette vision correspond en particulier à lidentification qualitative de phénomènes collectifs (cf. Figure 3-4).
Figure 3-4 : Trois types de trajectoires pour lensemble de la population dans le cas du modèle daccord relatif avec extrémistes (cf. paragraphe 4-5-2), nous identifions dans ce cadre trois comportements qualitatifs particuliers.
Cependant ce type dapproche peut aussi bénéficier de mesures qualitatives pour appuyer et éventuellement rechercher, voire discriminer, des classes de comportements collectifs. Ainsi, si nous travaillons sur la distribution des vecteurs détats X(t) nous pouvons appliquer une panoplie dindicateurs, comme des outils statistiques classiques, qui nous permettront didentifier des comportements collectifs particuliers. Cest le cas par exemple si nous conduisons une analyse des groupes dans la distribution sur une composante particulière m(t)=Xj(t) des vecteurs détat (indice y mis au point dans la section 4.5.3.2 ou évolution du nombre de groupes au cours du temps).
Observer les autres éléments dans le modèle (G,E)
Notre modèle individus-centré M={A, G, E, S, T} est cependant composé dautres éléments que la population dindividus A. Dans notre compréhension du modèle, lors de cette phase exploratoire, nous devons donc considérer les éléments qui ont une réponse au cours de lexécution du modèle. Ces éléments doivent évoluer et leur évolution au cours de lexpérience de simulation doit être suffisamment complexe pour faire lobjet dune enquête particulière. Ainsi, dans cette partie où nous considérons uniquement les différentes composantes du modèle prises indépendamment ou plutôt mesurées indépendamment, il est inutile de mesurer les facteurs exogènes S qui sont spécifiés explicitement dans le modèle (leur comportement ne change pas en fonction de létat des autres composants) et il est également inutile de mesurer lévolution de la gestion et de la représentation du temps T, pour les mêmes raisons. Les deux éléments qui vont nous intéresser particulièrement ici sont lenvironnement E et le graphe dinteractions G. Lorsquils sont introduits dans les modèles, ces éléments sont en effet des éléments centraux (exemple de lévolution de la ressource forestière dans Bonnefoy et al. (2001)). Les évolutions de ces composants font donc souvent lobjet de mesures ou dobservations dans la pratique et sont rarement négligées.
Mesurer lenvironnement
Si nous nous intéressons à mesurer lenvironnement seul, sans chercher à le corréler à la population dindividus, le cadre dapplication dans lequel il est intéressant de lobserver est relativement réduit. Il est présent cependant dans trois cas énoncés dans la partie consacrée à létat de lart. Le premier cas correspond à celui où lenvironnement sert de média de communication pour les individus (le dépôt de phéromones chez les fourmis par exemple). Le deuxième cas concerne celui où les individus consomment une ressource dans lenvironnement (le cas du sucre et des épices dans Sugarscape par exemple (Epstein et Axtell, 1996)). Le dernier cas correspond à celui où les individus interagissent plus fortement avec lenvironnement non seulement en « consommant » des éléments de lenvironnement mais également en les déposant ou en les déplaçant (le cas de la construction des piliers chez les termites, où les termites déplacent les grains de sable de lenvironnement par exemple).
Il sagit alors bien souvent de représenter et de mesurer des propriétés directes de lenvironnement, des états de celui-ci :
- soit de manière globale (quantité de sucre présente dans lenvironnement au temps t ou évolution de la quantité de sucre),
- soit de manière spatialisée en représentant la localisation des ressources et la quantité ou létat de ces ressources en chaque point de lenvironnement.
Les deux approches sont utilisées fréquemment pour comprendre lévolution de lenvironnement. Des techniques danalyse spatiale sont souvent utilisées (Goreaud, 2000) pour caractériser les distributions spatiales des ressources (ces techniques sont également appliquées à la répartition spatiale des entités que nous évoquerons dans la partie consacrée aux couplages), et déterminer en particulier si cette distribution est plutôt aléatoire, régulière ou clusterisée.
Mesurer le graphe dinteractions
En ce qui concerne le graphe dinteractions, son utilisation, même au sein de la simulation sociale, est relativement rare et le graphe pris en compte est très fréquemment statique. Appliquer une mesure sur cet objet revient souvent à caractériser le graphe, par exemple en utilisant des indicateurs de graphes classiques tels que : la connectivité moyenne (le nombre de liens moyens par individu), le nombre de composantes connexes, le diamètre du graphe (longueur du plus long des plus courts chemins), taux de clustering moyen (ou taux de redondance des liens), ou, comme nous lavons vu dans le cas des réseaux à invariance déchelle, la propriété de la distribution du nombre de liens par nud. Dautre part il est également possible de faire une analyse plus localisée du graphe en appliquant en particulier les indicateurs provenant de lanalyse des réseaux sociaux (Wassermann et Faust, 1994) tels que : la centralité de proximité dun nud (le fait quun nud soit plus ou moins proche de lensemble des autres et qui correspond à une normalisation de la somme des plus courts chemins de lindividu à tous les autres individus de la population) ou la centralité dintermédiarité dun nud (le fait quun individu apparaisse plus ou moins souvent sur les plus courts chemins dans le graphe et qui traduit le fait que lindividu soit un individu pont entre deux groupes dindividus ou pas).
Cependant si le graphe considéré est statique, la mesure de ces différents indicateurs est de peu dintérêt puisque la compréhension du modèle ne passe pas par la compréhension du graphe dinteraction (le graphe nest pas modifié par le modèle). Sauf dans le cas où ces graphes statiques seraient issus dun processus de construction non déterministe ou si nous cherchions à comparer des expériences similaires réalisées sur des graphes différents pour tenter de comprendre linfluence de la forme du graphe sur la dynamique du modèle. Il nous faudra nous reposer dans ce cas sur les indicateurs énoncés et les comparer pour avancer dans la compréhension de linfluence.
Concernant la dynamique du graphe, sa mesure ou sa caractérisation, la représentation de lévolution des indicateurs énoncés peut être un bon début pour comprendre globalement lévolution du graphe dinteractions, en particulier lévolution du nombre de liens au cours du temps, ou lévolution du nombre de composantes connexes qui peuvent traduire des phénomènes de regroupement des individus. Cependant pour des modèles plus complexes, nous pouvons également appliquer des indicateurs provenant de lanalyse structurale des réseaux dynamiques, en particulier ceux énoncés par Snijders (2001) et par Snijders et van Duijn (1997).
Observer les couplages au sein du modèle
Un élément important et souvent associé aux modèles individus-centrés réside dans le fait que les éléments qui composent ce modèle sont fortement couplés et ne peuvent faire longtemps lobjet dune exploration de type réductionniste dans laquelle on chercherait à comprendre les éléments indépendamment les uns des autres. Une part majeure de la difficulté de compréhension du comportement de ces modèles tient en fait à la compréhension de larticulation dynamique de ces différents composants. Ces couplages que nous avons évoqués lors de lexposé du méta-modèle doivent donc être étudiés et faire eux-aussi lobjet dune approche expérimentale, i.e. faire lobjet de mesures spécifiques.
Il faut noter que les mesures seffectuent dans le cadre dune expérience de simulation particulière au cours de laquelle nous cherchons à nous représenter lévolution dynamique des différents couplages. Il ne sagit pas dexplorer leffet dune composante construite avec certains paramètres sur une population dindividus, par exemple détudier linfluence de la structure du graphe sur le comportement de la population dindividus. Il sagit plutôt de rechercher une connaissance du fonctionnement du modèle en intégrant plusieurs composantes dans la mesure au cours dune expérience.
Un des couplages les plus souvent mesurés à ce niveau est le couplage entre population dindividus et environnement. De nombreuses simulations qui intègrent laspect géographique adoptent ainsi une visualisation spatiale de la simulation en y intégrant explicitement lenvironnement (Hill, 2000) (les agents qui se déplacent dans lenvironnement de Sugarscape (Epstein et Axtell, 1986) en sont un exemple). Si nous considérons la localisation de lindividu dans lenvironnement (à juste titre) comme un des éléments de son vecteur détat, les mesures proposées plus haut sont également utiles (suivi de lévolution des positions dun individu ou dune population dindividus, et de lévolution de leurs changements de positions). Comme nous lavons évoqué, lapplication dindicateurs de distribution spatiale sur la population dindividus et leur évolution dans le temps est également intéressante, en particulier pour létude de phénomènes de regroupement.
Un second couplage qui reste cependant peu étudié concerne la mesure conjointe du graphe dinteractions et de la population dindividus. Cest en partie ce que nous avons réalisé (Amblard et Deffuant, 2003) pour visualiser les réseaux dinteractions efficients, où dans le cadre du modèle présenté dans la partie suivante (un modèle dinteractions sous condition et sur un graphe statique), nous visualisons et nous mesurons le graphe correspondant aux relations entre individus qui sont susceptibles dentraîner un changement détat (qui vérifient la condition en question). La mesure dindicateurs classiques sur ce graphe, par exemple la mesure de lévolution du nombre de liens et du nombre de composantes connexes sont des indicateurs intéressants dans le cadre de létude de ce couplage entre réseau et population dindividus (cf. Figure 3-5).
Figure 3-5 : Mesures effectuées sur le graphe dinteractions efficientes pour différentes valeurs dun paramètre donné a) évolution du nombre de liens du graphe b) évolution du nombre de liens ajoutés au graphe c) nombre de composantes connexes dans le graphe
Caractériser le comportement dune simulation
La caractérisation du comportement observé au cours dune expérience a deux buts : le premier concerne la construction même des indicateurs qui vont le caractériser puisquils vont permettre une opération de synthétisation de la connaissance. Nous chercherons à obtenir un ensemble dindicateurs minimal qui caractérisera au mieux le comportement observé. Le deuxième but concerne la généralisation des expériences et la conduite de lexploration de manière systématique. Si nous voulons par exemple étudier linfluence de variations de paramètres sur le comportement du modèle, nous devons pouvoir caractériser synthétiquement le comportement observé sur une simulation. Cela revient donc à caractériser létat dun système au regard de ses états possibles, donc de situer le système considéré dans lespace des phases de celui-ci ou dans une réduction de cet espace. La relation qui existe entre ces deux buts est bien sûr la mise au point dindicateurs synthétiques pertinents. Ils devront en effet non seulement rendre compte de la situation observée au cours dune expérience, mais également être pertinents et le plus possible porteurs de sens pour chacune des expériences conduites au cours de lexploration systématique. Pour ce faire, il est nécessaire détablir des allers-retours entre exploration systématique (qui sera abordée au paragraphe suivant) et lobservation dexpériences particulières.
Observer une population de simulations
Lobservation dune population de simulations ou dun ensemble de simulations est tout dabord réalisée fréquemment pour évaluer les changements de comportement du modèle lorsque lon change les paramètres de celui-ci, pour évaluer les changements de réponse et tenter de découvrir une régularité ou un lien de corrélation entre changement des paramètres et comportement du modèle. Dautre part cette exploration systématique est également nécessaire pour généraliser la connaissance acquise sur des expériences particulières pour avoir une forme de théorie plus compacte du comportement du modèle. Pour ce faire, il faut ainsi conduire un grand nombre dexpériences que nous ne pouvons analyser chacune en détail. Notre exploration reposera donc sur les indicateurs identifiés et présentés au cours du paragraphe précédent. Il nous faut de plus organiser ces expériences de manière à avoir une exploration cohérente de linfluence des paramètres retenus par rapport aux objectifs fixés.
Pour parvenir à un tel but, il faut tout dabord introduire brièvement la méthode des plans dexpérience, champ particulier de la statistique, pour en présenter ensuite une application aux expériences de simulations, en particulier aux simulations individus-centrées.
La méthode des plans dexpériences est née du besoin, dans les sciences expérimentales, dorganiser les expériences réalisées pour réduire déventuels biais. De manière à mieux comprendre ce besoin, présentons un exemple typique. Dans le cadre de létude de lefficacité dun engrais sur une espèce de plante particulière, les expérimentateurs vont réaliser des expériences (disons sur 100 fleurs) en comparant une moitié de la population, la population témoin, qui aura été cultivée sans engrais et lautre moitié qui laura été en utilisant lengrais. Le recours aux plans dexpériences aura donc pour but dorganiser les 100 pots de fleurs de manière à limiter les biais. De cette manière, si nous disposons les 100 pots dans une serre, les 50 témoins au fond et les 50 avec engrais devant, les biais pourront provenir de nombreuses sources : luminosité plus importante à lentrée de la serre, chaleur non uniforme, arrosage/humidité non uniforme. Il faudra donc organiser entre elles les cultures pour éviter de tels biais, donc de mélanger les deux sous-populations de fleurs de manière à ce quelles soient soumises aux mêmes conditions.
Ce cadre nous permet dintroduire la notion de dépendance ou dinteraction entre expériences. En effet dans cet exemple, la disposition des pots (donc de chaque expérience) est un facteur important. Les expériences sont dépendantes les unes des autres. Dans notre cadre de simulation, lorganisation des expériences les unes par rapport aux autres est peu importante, puisque contrairement à la serre nous sommes plongés dans un cadre uniforme : les expériences seront toutes réalisées dans les mêmes conditions.
Ainsi, tout un domaine des plans dexpériences (les carrés latins par exemple) ne nous est pas de grande utilité pour lexploration systématique de nos simulations. Les parties qui vont nous intéresser correspondront donc, non pas à lorganisation des expériences entre elles, mais davantage à savoir quelles expériences il nous faut mener sur notre modèle. Dans ce cadre les plans dexpériences apportent également une réponse.
De manière synthétique, les plans dexpériences portent sur des facteurs et des niveaux pour chacun de ces facteurs. Dans le cas de la simulation, les facteurs correspondent aux variables que nous voulons évaluer et qui définissent lespace des paramètres à explorer et les niveaux ou valeurs à évaluer pour chacun des paramètres. Des réplications de ces expériences peuvent être nécessaires pour se baser sur des réponses moyennes lorsque les expériences sont sujettes à des aléas, ce qui est le cas pour les simulations stochastiques.
Le premier type de plan dexpériences le plus utilisé en simulation est le plan factoriel complet. Il consiste pour chacun des facteurs (des paramètres de la simulation) à définir les niveaux que lon souhaite étudier (ces niveaux correspondent en général à un découpage discret et régulier du facteur) puis à réaliser lensemble des expériences définies par la combinaison de ces valeurs. Pour chacun des points expérimentaux ainsi définis, dans le cas de simulations stochastiques notamment, il faudra réaliser suffisamment de réplications pour obtenir une moyenne des réalisations qui soit fiable. Cest en loccurrence le type de plans dexpériences que nous avons mis en place. Cependant lorsque dans certains cas on ne sintéresse quà lexploration dun sous-ensemble des paramètres, Kleijnen (1974 ; 1975 ; 1987) recommande de ne pas fixer les paramètres restants mais, dexpérience en expérience, de les déterminer aléatoirement. Cette dernière précaution permet déviter de prendre des valeurs trop particulières des paramètres qui ne sont pas testés pour réaliser une estimation non biaisée de linfluence des paramètres en cours détude. Sur ce dernier point, comme Coquillard et Hill (1997) le remarquent, beaucoup de modélisateurs sont mauvais élèves et fixent effectivement les paramètres dont ils ne veulent pas étudier linfluence. Nous navons à ce sujet malheureusement pas échappé à la règle. La principale raison en est que létude de linfluence de certains paramètres sur la simulation était réalisée dans des conditions particulières au modèle : pas de balance entre les deux extrêmes et peu dinfluence des autres paramètres. Aussi il nous a semblé que nous pouvions nous dispenser dappliquer cette recommandation à la lettre.
Un autre type de plans dexpériences qui peut également être mis en place et qui dérive de méthodes de type Monte Carlo concerne les plans dexpériences aléatoires. Les facteurs ayant été choisis, nous déterminons alors les niveaux de chacun des facteurs aléatoirement. Nous obtenons ainsi progressivement une « image » de la réponse dans lespace des paramètres. Les points délicats concernent alors dune part la connaissance du nombre dexpériences à réaliser ou du critère darrêt des expériences dans le cadre où le processus dexploration serait dynamique et dautre part la question des réplications à conduire. Sur ce dernier point deux attitudes sont possibles : réaliser en chaque point dexpérience un nombre de réplications fixé de manière à travailler sur une moyenne des réalisations de la réponse ; ou ne pas réaliser de réplications de chacune des expériences en sappuyant sur une homogénéité locale de la réponse. Des points dexpérience qui seront très proches pourront alors permettre de se figurer la variabilité de la zone en question.
Le dernier type de plan dexpériences que nous exposerons ici concerne les plans dexpériences factoriels incomplets aussi appelés plans dexpériences dynamiques. Ils sont généralement mis en place dans les mêmes conditions que les plans dexpériences factoriels complets. Nous avons ainsi un ensemble de facteurs et de niveaux définis pour chacun de ces facteurs, avec la contrainte supplémentaire dêtre alors face à un plan dexpériences trop important. Cette difficulté peut provenir soit du nombre trop important de simulations à réaliser, soit du temps trop important que met une simulation pour sexécuter. En partant dun ensemble de points que nous voudrons explorer (le plan dexpériences factoriel complet correspondant), nous essayerons dobtenir une réponse satisfaisante en un minimum dexpériences. Pour ce faire, les techniques fréquemment utilisées rejoignent les techniques doptimisation. Le principe peut être expliqué rapidement : nous exécutons les expériences au fur et à mesure (les premières expériences étant conduites soit aléatoirement, soit en suivant un découpage régulier à grosses mailles) et les réponses des expériences permettent dorienter les expériences futures à réaliser. Bien que dans notre cas, le nombre dexpériences à conduire et le temps dexécution des simulations nous aient permis de rester dans le cadre des plans dexpériences factoriels complets, un premier ensemble dexpériences réalisées nous permettrait de définir, en fonction des réponses obtenues, les points expérimentaux suivants à tester, pour déterminer les frontières des comportements typiques (cf. Figure 3.6).
Figure 3.6 : Exemple de plan dexpériences factoriel dynamique dans lespace des paramètres (U, pe) dun modèle donné (nous avons représenté en arrière plan la réponse y du modèle à un plan dexpériences factoriel classique). Le premier ensemble dexpériences (croix + rouges) nous permet par une méthode basique basée sur lexploration des plus grandes différences de réponse, de déterminer les suivantes (croix X bleues) pour affiner lexploration.
Pour conclure sur les plans dexpériences existants qui peuvent être appliqués à la simulation, beaucoup dautres types de plans peuvent être considérés. Le lecteur pourra se référer à Kleijnen (1974) ou Kleijnen et Van Groenendaal (1992) pour lutilisation des plans dexpériences en simulation. Cependant, les trois types de plans que nous avons présentés (factoriels complets, aléatoires, factoriels incomplets ou dynamiques) représentent la grande majorité de ceux utilisés par les modélisateurs.
Un point important qui doit être souligné dans le cadre de lexploration systématique de la réponse dun modèle concerne la réplication des simulations. En effet, les modèles individus-centrés étant dans leur grande majorité stochastiques, il faut réaliser un certain nombre de simulations en chaque point de lespace des paramètres exploré pour pouvoir en extraire une quelconque connaissance. Le point délicat réside dans le nombre de réplications à conduire. Pour exposer plus précisément le problème, prenons le cas dun modèle qui donne une réponse sous forme de plateau (une réponse fixe à quelques variations près) en une zone de lespace des paramètres et qui présente une bifurcation (présence dun mélange dattracteurs) en une autre zone. Comment déterminer de manière générique le nombre de simulations à conduire en chaque point de lespace des paramètres ? Dans le cas de la zone qui présente une réponse unique, un faible nombre de réplications permettra dobtenir une réponse satisfaisante (plus dune trentaine de simulations pour réaliser des opérations simples du type moyenne et écart-type sur la réponse). Cependant dans le cas de la zone où nous observons une bifurcation, si un faible nombre de réplications nous permet de distinguer la présence de la bifurcation (il suffit dobserver la présence dans les réponses des deux attracteurs, un fort écart-type peut être un signe dune telle présence) comment pouvons-nous approcher au mieux la composition du mélange ? Dans le cas de la présence conjointe de deux attracteurs A et B, comment pouvons-nous déterminer en ce point de lespace la proportion moyenne de A et la proportion moyenne de B ? Combien de réplications faut-il conduire pour en avoir une bonne idée ? Hill (2001) et Coquillard et Hill (1997) nous donnent une première piste en employant lanalyse spectrale. Une autre piste qui peut être explorée concerne lanalyse de la connaissance collectée, et consiste non plus à conduire un nombre de réplications fixé, mais à conduire des réplications tant que le processus de connaissance nest pas stabilisé. Plus clairement, si nous reprenons le cas de notre mélange, il sagira de conduire des réplications jusquà ce que lévaluation de la proportion du mélange atteigne un seuil. Ainsi sur plusieurs réplications, si lévaluation du mélange présente des variations importantes, il nous faudra conduire suffisamment de réplications pour que lévaluation de ce mélange se stabilise. Bien sûr cette solution nest quune piste vers la résolution de ce problème qui reste ouvert.
Articulation et navigabilité entre les différents points de vue
Les différents points de vue que nous avons présentés sur lobjet dexpérience quest la simulation individus-centrée ne sorganisent pas linéairement comme nous avons dû le faire au cours de leur présentation. Bien au contraire, il faut les considérer comme des systèmes de mesures différents qui peuvent être appliqués à lexpérience de simulation. Ces différents systèmes de mesures sarticulent les uns avec les autres et de fréquents allers-retours entre ceux-ci sont nécessaires pour obtenir une meilleure compréhension du modèle (Drogoul, 2000). Ainsi, dans le cadre de lélaboration dindicateurs pertinents pour une exploration systématique, le modélisateur doit réaliser ces allers-retours entre exploration systématique et comportement collectif de la population. De même au cours de la construction de sa compréhension du modèle, lexpérimentateur va élaborer des hypothèses selon un certain point de vue dont il devra vérifier la cohérence avec les autres points de vue. Pour une meilleure compréhension du modèle, il sagit donc dintroduire les éléments qui seront nécessaires pour la gestion de la navigabilité entre ces différents points de vue.
Pour prendre un exemple concret, si lexpérimentateur observe quen une zone de lespace des paramètres son modèle se comporte dune manière particulière, il va vouloir vérifier ce qui se passe en un ou quelques points de cette zone. Il devra ainsi pouvoir reconstruire les expériences réalisées en ce point particulier (la répétition étant imposée par la stochasticité du modèle). Une fois ces expériences récupérées il va par exemple vouloir visualiser lévolution de son indicateur au cours du temps sur chacune de ces expériences. Puis, toujours pour vérifier lhypothèse émise, il va vouloir vérifier ce comportement sur les trajectoires de lensemble de la population et éventuellement analyser le comportement dindividus particuliers. Cest, nous le pensons, vers ce type de navigabilité entre points de vue quil faut tendre si nous voulons obtenir une compréhension plus efficace du comportement de modèles individus-centrés. Cest ce que nous proposons dévoquer dans le paragraphe suivant pour lexécution des plans dexpériences et dans la partie suivante concernant plus exactement la navigabilité entre modèles. Ces deux points nous permettrons davancer dans cette direction.
Vers une gestion de lexploration systématique
Une fois le plan dexpériences mis au point, i.e. le modélisateur a déterminé quelles expériences il allait devoir réaliser, il faut donc exécuter les simulations correspondantes. Nous avons pour ce faire expérimenté deux solutions : une solution mono-poste et une solution sur un cluster de 24 bi-processeurs, une ferme de calcul à notre disposition, gérée par OpenPBS (Open Portable Batch System). OpenPBS (http://www.openpbs.org) est un système de gestion de files dattentes par scripts développé pour la NASA au début des années 90. Il fonctionne sur des environnements multi-plateformes UNIX en réseau.
Solution mono-poste
Concernant la solution en mono-poste, quel que soit le plan dexpériences retenu, il apparaît essentiel de découpler le programme de simulation proprement dit du programme gérant le plan dexpériences pour conserver une forme dindépendance entre le modèle réalisé et les outils dont nous nous servons pour létudier. Ainsi dans une optique minimaliste, le programme de gestion dun plan dexpériences factoriel complet pourra être implémenté en ayant recours à des scripts qui font sexécuter le programme de simulation en lui communiquant les valeurs des différents paramètres correspondant à lexpérience en ligne de commande.
Ce nest cependant pas la solution que nous avons retenue. Nous avons en effet préféré gérer le plan dexpériences et lexécution des simulations correspondantes dans un programme extérieur qui manipule le programme de simulation pour fixer les valeurs des paramètres à laide de modifieurs et qui déclenche son exécution. Le plan dexpériences factoriel complet est alors géré simplement par des boucles imbriquées, chacune correspondant au parcours dun tableau de valeurs pour un facteur particulier. Une boucle supplémentaire gère lexécution des réplications en chaque point. Le programme gère également la récupération des résultats de simulation dans un fichier, en allouant une ligne particulière pour chaque simulation. Cette ligne reprend les valeurs des différents paramètres de lexpérience et les valeurs des indicateurs de réponse (les sorties de la simulation). Ce fichier est ensuite destiné à être traité par un tableur, dans notre cas MS-Excel. Une remarque doit être faite concerne la boucle correspondant aux réplications. Dans notre cas lexécution mono-poste du plan dexpériences étant relativement longue (une à deux semaines), il peut être intéressant davoir en cours dexécution une première évaluation de la réponse du plan. La boucle correspondant à la gestion des réplications a donc tout intérêt à englober les autres boucles dédiées au parcours des valeurs attribuées aux différents facteurs. Ainsi nous obtenons assez rapidement une première image de la carte, image qui sera affinée au fur et à mesure de la réalisation des réplications.
Distribution des expériences sur une ferme de calcul
Pour réaliser des explorations systématiques de la réponse dun modèle sur un espace de paramètres donné, le processus dexécution dun plan dexpérience, en particulier dans le cadre dun plan dexpériences factoriel complet, peut être très long. Nous avions donc intérêt à utiliser des moyens de calcul importants. Cest ce que nous avons fait dans une seconde phase en conduisant nos expériences de simulation sur une grille de calcul du Cemagref. Lintérêt est bien entendu de réaliser lexécution du plan dexpériences plus rapidement en distribuant les expériences à réaliser sur chacun des nuds de la grille.
Les contraintes principales à appliquer sur le modèle de simulation pour pouvoir distribuer les expériences concernent linitialisation de la simulation et la récupération des résultats. Il faut en effet passer au programme les bonnes valeurs de paramètres et gérer les conflits en écriture pouvant intervenir lorsquun fichier résultat est partagé par plusieurs simulations. Ainsi, la première solution basique mise en place, consiste à générer un fichier dinitialisation pour chacune des expériences à réaliser. Ensuite il faut lancer lensemble des expériences dans la file dattente de la grille de calcul et attendre un nud disponible pour exécuter lexpérience. Enfin il faut faire écrire les résultats de la simulation dans autant de fichiers quil y a dexpériences. Cette solution qui entraîne la congestion de la file dattente a été rapidement abandonnée. Une première manière de factoriser dune certaine manière ces exécutions, consiste à faire réaliser à chaque programme de simulation non pas une expérience unique mais également toutes les réplications correspondantes. Nous gagnons ainsi un facteur correspondant au nombre de réplications pour la répartition des expériences de simulations sur la grille. Dans cette dernière solution, nous avons toujours un fichier qui servira à initialiser les valeurs des paramètres de la simulation (paramètres initialisés une fois pour toutes) et les résultats seront inscrits séquentiellement dans un fichier. Nous obtenons alors autant de fichiers quil y a de points dans le plan dexpérience. Linconvénient majeur est encore le même à savoir que la file dattente de la grille risque de nouveau dêtre engorgée.
La solution que nous avons finalement mise en place consiste à découper les expériences de simulation à réaliser suivant le nombre de nuds disponibles sur la grille. Ainsi un programme minimal nous permet, pour un plan dexpériences donné, de générer autant de fichiers que de nuds, chaque fichier contenant séquentiellement les caractéristiques des expériences à réaliser (valeurs des paramètres). Ensuite sur chaque nud, des programmes-interface permettent de faire le lien entre le fichier de paramètres à exploiter et les simulations à exécuter. Il initialise donc séquentiellement les expériences de simulation à réaliser, et les exécute sur le nud sur lequel il est situé. Le programme interface communique également au programme de simulation le nom dun fichier dans lequel stocker les résultats de chaque simulation. Le plan étant ainsi découpé en autant de sous-plans indépendants que de nuds disponibles, nous évitons lengorgement de la file dattente et les conflits en écriture sur les fichiers résultats. De plus, une répartition adéquate des expériences permet déquilibrer la charge sur les différents nuds de manière à optimiser le temps de calcul. Pour ce dernier point, deux stratégies peuvent être mises en place, soit répartir les réplications dune simulation sur les différents nuds, chaque processeur exécute alors une simulation dont le temps dexécution est relativement comparable aux autres ; soit répartir régulièrement ou aléatoirement le plan dexpériences en évitant de se retrouver confronté au cas ou lon découpe lespace des paramètres en zones que lon donne à traiter à chaque processeur (les différentes zones pouvant correspondre à des temps dexécution très différents).
Par la suite les fichiers résultats qui sont structurés suivant une forme séquentielle sont agrégés en un seul fichier résultat pour lensemble du plan (commande cat sous Unix). Il reste alors à réaliser lexploitation de ce fichier.
Un autre problème majeur dans le cadre de la distribution de simulation concerne la distribution des nombres pseudo-aléatoires. Comme évoqué dans De Matteis et Pagnutti (1988), des biais peuvent apparaître non seulement du fait du générateur de nombre pseudo-aléatoire utilisé (LEcuyer, 1988 ; Klimasauskas, 2002) mais également de la technique de partitionnement des séquences de nombres sur les différents processeurs. Différentes techniques de répartition et différents générateurs ont été testés dans Traore et Hill (2001).
Vers une automatisation de lensemble du procédé : SimExplorer
Depuis les débuts de la simulation, le champ des plans dexpériences a été un champ de recherche très actif pour le test et lanalyse du comportement des modèles de simulation. Les plans dexpériences sont encore aujourdhui une technique robuste dans un contexte daide à la décision (Zeigler, 1976 ; Balci et Sargent, 1981 ; Kleijnen, 1987 ; Hill, 1996 ; Sarjoughian et Cellier, 2001).
En suivant les arguments de Balci et al. (2000), laccréditation de modèles de simulation passe par lutilisation de processus de vérification et de validation rigoureux (Kleijnen, 1995). Pour leur réalisation, il faut alors conduire un nombre considérable dexpériences de simulation pour explorer les comportements du modèle. De plus, dans certains cas, la réalisation dexpériences de simulation est la seule manière danalyser et de comprendre le comportement de modèles complexes. Cest le cas par exemple de modèles individus-centrés, représentant des dynamiques sociales ou écologiques, et dans lesquels leffet cumulatif des interactions peut conduire à des effets inattendus généralement impossibles à formaliser analytiquement (Deffuant et al., 2002a). Il y a donc, comme nous lavons souligné précédemment, un besoin pour automatiser à la fois lexécution dun nombre massif dexpériences de simulation et pour gérer les plans dexpériences correspondants dune manière un peu plus évoluée que par limplémentation de simples scripts. Cette préoccupation inclut à la fois la réalisation dinterfaces ergonomiques et la distribution des exécutions pour lancer les expériences de simulation correspondantes sur des processeurs parallèles lorsque cela est possible (Belloum et al., 2003).
Pour conduire les expériences de simulations de manière aussi efficace et rigoureuse que possible, nous proposons un Platform Independent Model (PIM) et son prototype dimplémentation, SimExplorer. Ce logiciel peut être appliqué pour conduire à la fois des simulations déterministes et stochastiques. Le cas de la distribution de simulations stochastiques est particulièrement envisagé, parce quoutre les problèmes classiques liés à lutilisation de générateurs pseudo-aléatoires biaisés (Klimasauskas, 2002), il conduit à discuter certains résultats de recherche concernant la parallélisation de générateurs de nombres pseudo-aléatoires pour les simulations stochastiques (Fujimoto, 1990 ; Traore et Hill, 2001). La technologie PIM provient de lObject Management Group (OMG: www.omg.org). Elle est incluse dans la Model Driven Architecture (MDA) qui propose une nouvelle approche pour développer des applications et écrire des spécifications. Nous présenterons donc ici une spécification MDA de SimExplorer qui consiste en un PIM de base en UML"! (Unified Modelling Language), et en un platform-specific model (PSM) montrant comment le modèle de base est implémenté. L approche MDA pour le développement de SimExplorer nous permet de nous focaliser tout d abord sur les fonctionnalités et le comportement de lapplication distribuée. Celle-ci va gérer le cadre expérimental pour des simulateurs séquentiels ou parallèles, sans les distorsions communes qui sont souvent induites par les technologies retenues pour limplémentation ou les autres choix dimplémentation réalisés. Par la dissociation entre les détails dimplémentation et les fonctions essentielles de SimExplorer, nous pouvons faire évoluer le système en incluant des nouvelles technologies sans avoir à répéter le processus de modélisation de lapplication ou des fonctionnalités et comportements du système. Les architectures proposées au cours de la dernière décennie, par exemple lObject Management Architecture (OMA, qui provient également de lOMG) sont généralement liées à une technologie particulière. Par exemple, notre solution en matière danalyse exposée dans un PSM, doit utiliser XMI (eXtended markup language Metadata Interchange) pour la communication entre des composants logiciels Java. Malgré cette spécificité, par le choix de MDA, les fonctionnalités et le comportement de SimExplorer sont modélisés une fois pour toutes.
Analyse des besoins
Lautomatisation de lexploration et du test des modèles exposée précédemment implique dimposer un ensemble minimal de contraintes quun programme de simulation doit suivre pour être capable dappliquer les mêmes procédures à chaque expérimentation concrète avec nimporte lequel des modèles implémentés. Avec notre approche, le modèle de simulation exécutable est considéré comme un programme composé dune structure paramétrique contenant un ensemble de variables dentrées et de sorties. Les besoins minimaux auxquels doit pouvoir répondre le programme de simulation traité par SimExplorer sont donc (cf. Figure 3.7) :
- Linitialisation du programme à partir dun seul fichier contenant les paramètres dentrée de la simulation (ce fichier pourrait se référer alors hiérarchiquement à dautres fichiers de données qui peuvent être manipulés par le programme de simulation)
- La capacité de lancer lexécution du programme de simulation comme un processus externe.
- La description dune zone dexploration. Au lieu de donner une seule valeur à chaque paramètre, lutilisateur spécifie un ensemble de valeurs.
- La définition dune méthode dexploration sur une zone dexploration par le choix dun plan dexpériences existant ou la construction dun nouveau plan.
- La définition des sorties de simulations : lutilisateur peut sélectionner des variables particulières ou des combinaisons de variables, à des pas de temps particuliers ou pour des états particuliers du système (à convergence par exemple), pour que celles-ci soient analysées.
- Lexécution des simulations correspondant à un ensemble de paramètres ou un plan dexpériences donné (Kleijnen et Groenendaal, 1992).
- La visualisation ou animation des résultats de simulations après exécution et de manière synthétique pour pouvoir les interpréter (Hill, 1996). Cela pourrait correspondre à la visualisation de la trace dune simulation ou à des visualisations plus évoluées pour synthétiser lexploration dun grand nombre dexpériences de simulation (Bell et OKeefe, 1987 ; Hill, 2000).
A partir de cet ensemble minimal de contraintes, nous observons que les Simulateurs Interactifs Visuels ne sont pas directement gérables. En fait, les explorations réalisées sur des environnements interactifs ne sont pas réalisables avec ce type doutils. Cependant les outils de simulation scientifiques proposent souvent une version script avec des fichiers de traces synthétiques pour exécuter un grand nombre dexpériences, particulièrement dans le cadre des modèles stochastiques.
Figure 3.7 : Cas dutilisation UML pour SimExplorer.
Modèle de conception
Organisation des composants
De manière à assurer lindépendance des différents composants logiciels, plus particulièrement entre le modèle de simulation et linterface dexploration, nous avons décidé dutiliser des fichiers XML (eXtended Markup Language) correspondant au standard XMI pour communiquer entre les composants. Un travail similaire est proposé par Syrjakow et al. (2002) (cf. Figure 3.8). Linterface dexploration lit les entrées et sorties du modèle à partir dun fichier de description écrit en XML par le modélisateur pour décrire son modèle et générer pour chaque expérience de simulation un fichier XML contenant les valeurs des différents paramètres de la simulation. De plus, le fichier XML décrivant lexpérience de simulation contient aussi la description XML des indicateurs, élaborée en combinant les sorties de simulations à observer.
Nous naborderons pas ici les composants supports de la simulation (cf. Figure 3.8), cependant le lecteur intéressé peut se reporter à Andradottir (1998) pour loptimisation de simulations, à Balci (1998) pour les questions de validation et à Aussem et Hill (1999) pour lutilisation de méta-composants pour lexploitation de modèles de simulation.
Figure 3.8 : Outils de modélisation et de simulation et leurs relations (Syrjakow et al., 2002)
Lorganisation de linterface dexploration suit un découpage en paquetages qui est assez naturel. Il y a ainsi trois paquetages :
- Le paquetage Exploration qui va gérer ce qui concerne les spécifications de lexploration, qui seront détaillées plus loin.
- Le paquetage Distribution qui soccupe de la distribution et de lexécution de la simulation.
- Le paquetage Résultats qui va récupérer et traiter les résultats de simulation, gère aussi la visualisation de ceux-ci.
Dautre part, les objectifs du paquetage Exploration imposent également un découpage en sous-paquetages (cf. Figure 3.9). Le premier dentre eux le paquetage Contraintes gère toutes les contraintes sur les entrées et les sorties du modèle. Le paquetage Paramètre gère la partie clé qui correspond à la récupération des variables du modèle à partir du fichier de description XML, la possibilité de définir la zone dexploration et la définition de scénarios. Finalement le paquetage Plan dexpériences gère le choix et lexécution de plans dexpériences particuliers.
Figure 3.9 : Diagramme de paquetage UML illustrant les interactions entre les sous-paquetages du paquetage Exploration.
Gestion des paramètres
Au cours de la définition de la zone dexploration, nous devons gérer les paramètres et la manière dont ils sont organisés. Cette procédure est indépendante de la catégorisation classique des paramètres en variables détat, paramètres de dynamique et scénarios, car elle doit prendre en compte de manière aussi générique que possible le type de ces variables et non pas leur statut vis-à-vis des modèles. Le modèle est alors considéré, du point de vue de linterface, comme une structure paramétrique qui agrège des paramètres. Ainsi, nous isolons deux types de paramètres : les paramètres simples correspondent à des types classiques (integer, float, double, string, etc..) et les groupes de paramètres qui correspondent à des agrégations de paramètres. Nous obtenons le diagramme de classe suivant concernant lorganisation des paramètres (cf. Figure 3.10) et contenant le patron de conception composite (Gamma et al., 1995). Nous devons préciser que cette catégorisation des paramètres est applicable à chacun des statuts de variables que nous avons décrits (variables détat, paramètres de la dynamique et scénarios). Alors en incluant les différents types disponibles et la documentation pour les différents paramètres nous pouvons compléter les différents objets traités par linterface dexploration pour décrire le modèle et définir son exploration. Cela inclut le nom des paramètres, des remarques et des descriptions pour une manipulation plus facile de linterface (cf. Figure 3.10) et la documentation de chaque paramètre.
Figure 3.10 : PIM en UML prenant en compte les différents types disponibles.
Gestion des contraintes
Concernant les contraintes appliquées sur lexpérience de simulation pour la manipulation du modèle (contraintes provenant du modélisateur, contraintes dexploration, contraintes de sorties), nous devons seulement considérer une grammaire basique pour toutes les exprimer. Cette grammaire permet dexprimer des formules liant des variables, des opérateurs (en particulier des opérateurs logiques) et des valeurs numériques. Les relations entre ces objets sont exprimées sur la figure 3.11.
Figure 3.11 : Diagramme de classe UML pour le paquetage « contraintes ».
Gestion des plans dexpérience
Une fois que lutilisateur a exprimé les différentes valeurs liées à chacun des paramètres du modèle quil souhaite explorer, et une fois que les contraintes sur les paramètres ou entre les paramètres sont exprimées, il doit vouloir appliquer un plan dexpérience. Lapplication des plans dexpériences à la simulation nest pas nouvelle (Kleijnen, 1987) mais sa généralisation à lensemble du champ de la modélisation et de la simulation nest pas encore acquise en particulier du fait quun plan dexpériences est encore difficile à élaborer. De plus, le plan dexpériences est très dépendant du type du modèle et du type danalyse que lutilisateur souhaite réaliser. Malgré cela, nous ne proposons pas un outil qui choisira le meilleur plan dexpériences en fonction du modèle ou de lanalyse désirée. Lintervention et lexpérience de lutilisateur intervient ici pour choisir un plan dexpériences approprié à lexploration. Loutil fournira juste une librairie de plans dexpériences et permettra à lutilisateur den ajouter de nouveaux. Les différents types de plans dexpériences que nous souhaitons gérer sont donnés par la suite. Quel quil soit, le plan dexpériences devra prendre en compte les réplications à réaliser pour les simulations stochastiques :
- Les plans dexpériences complets (plans factoriels) doivent être capables de réaliser toutes les simulations décrites par la combinaison des valeurs de paramètres spécifiées en prenant en compte les contraintes qui lient ces paramètres.
- Les plans dexpériences incomplets vont exécuter seulement un sous-ensemble organisé des expériences dun plan dexpériences complet.
- Les plans dexpériences aléatoires se focalisent sur un ensemble aléatoire dexpériences dans lespace des paramètres ou une partie de cet espace.
- Les plans dexpériences dynamiques peuvent être envisagés comme des outils doptimisation. Le principe général est ici dexécuter un premier ensemble de simulations dans lespace des paramètres (souvent une discrétisation régulière de cet espace ou un ensemble aléatoire dun espace continu). La réponse de cet ensemble dexpériences est alors analysée et un nouvel ensemble dexpériences de simulation est déterminé automatiquement pour optimiser un indicateur ou plus généralement une variable du plan dexpérience. Cest le cas par exemple des plans dexpériences de surface de réponse. Les plans dexpériences sont un outil utile dans le cas du raffinement de zones spécifiques de lespace des paramètres.
Conception du fonctionnement
De manière à résumer le fonctionnement du processus dexploration, nous avons un paquetage paramètre qui permet de lire la description dun modèle à partir dun fichier XML. Ce paquetage permet de définir lespace des paramètres pour lexploration en spécifiant pour chaque paramètre du modèle les différentes valeurs à explorer. Une fois que celles-ci sont définies, le paquetage Contraintes permet dexprimer des contraintes sur lespace dexploration en liant des paramètres et des valeurs numériques au sein de formules. Enfin le paquetage Plan dexpériences propose différents moyens dexplorer lespace dexploration contraint ainsi défini. En fonction du fichier pris en entrée, linterface fournit deux formulaires différents. Concernant la structure globale, les paramètres sont organisés sous forme darbre dans la partie gauche de linterface. Les feuilles ayant la même structure globale directe sont groupées et apparaissent dans la partie droite de linterface sous forme de formulaire (cf. Figure 3.12).
Figure 3.12 : Interface Homme-Machine, un arbre organise les groupes de paramètres à gauche et un formulaire détaille un groupe de paramètres à droite (Truffot, 2002).
Quelques champs dapplications
Expérimentations sur des distributions initiales et des structures spatiales
La particularité principale des modèles individus-centrés est de représenter explicitement lensemble des individus du modèle. Une expérimentation requiert donc de spécifier les valeurs initiales des attributs de ces individus. Souvent cette initialisation est faite par des tirages selon des distributions de probabilité. Ces hypothèses dinitialisation peuvent avoir des conséquences importantes sur le comportement ultérieur du modèle. Il est donc important dévaluer cette influence avec soin lorsque nous cherchons à comprendre un modèle. Nous prévoyons dinclure dans SimExplorer la possibilité dutiliser des distributions classiques pour initialiser les modèles.
Cependant, il est également important dévaluer linfluence du nombre dindividus sur le comportement du modèle, notamment lorsque linitialisation des attributs est faite par des tirages selon une distribution. En effet, plus le nombre dindividus est faible, plus la variabilité est importante, ce qui rend les tendances et les régularités plus difficiles à établir. Il peut donc être intéressant de tester les modèles avec de grands nombres dindividus afin de limiter cette variabilité. Il est alors nécessaire dinclure la taille de la population comme paramètre à tester dans les expériences.
Par ailleurs, lorsque nous utilisons des distributions issues de données de relevés (pour des peuplements forestiers par exemple), lutilisation dindicateurs agrégés caractérisant la distribution spatiale (Diggle, 1983) peuvent être pertinents pour établir des régularités entre la distribution et la dynamique elle-même (Goreaud, 2000). De tels indicateurs peuvent être utiles également pour des initialisations par des distributions de probabilités artificielles. Il est donc intéressant dintégrer de tels outils dans SimExplorer.
Expérimentations sur les structures dinteractions
Nous considérons maintenant des modèles individus-centrés particuliers, fréquents en modélisation sociale, dans lesquels les interactions entre les individus sont définies par un graphe (le réseau social). Nous supposerons ici que ce graphe est statique. Nous supposons aussi, bien sûr que les individus sont définis par un ensemble dattributs dont les valeurs sont initialisées en début de simulation, et évoluent ensuite à cause des interactions entre les individus reliés par le graphe.
Un des problèmes intéressants posés pour ce type de modèle est dévaluer linfluence de propriétés générales du graphe sur la dynamique globale du modèle. Par exemple, nous pouvons nous intéresser à linfluence de la structure du graphe sur la formation et lévolution de groupes homogènes dindividus.
Nous proposons différents tests à réaliser pour caractériser linfluence de la structure dinteractions sur le comportement du modèle. Nous adoptons la métaphore dun graphe sur lequel nous posons une distribution, chaque nud prenant une valeur particulière de cette distribution.
Dans ce cadre il peut être intéressant dutiliser différents types de graphes ayant des propriétés bien particulières dont nous voulons évaluer linfluence sur la dynamique du modèle. Typiquement le premier élément basique que nous pourrions vouloir tester est la connectivité moyenne du graphe, le nombre de liens de celui-ci. Un autre point que nous pouvons tester (et que nous avons testé dans la partie 5.6.3) est le fait que la structure soit plutôt régulière ou plutôt aléatoire. Pour réaliser ce test, le modèle de small-world de Watts (1999) est très utile puisquil permet, en utilisant seulement deux paramètres, de faire varier non seulement la connectivité moyenne, mais également le bruit que lon applique à une structure régulière construite à partir de cette connectivité, à savoir le fait quelle soit plus ou moins aléatoire.
De la même manière, une propriété mise en évidence fréquemment sur des données empiriques (même si ces dernières ne concernent pas les réseaux sociaux directement), à savoir le Web (Albert et al., 1999) ou les réseaux métaboliques (Barabasi, 2002), concerne la distribution des connectivités de chaque nud du graphe. Dans ces études il apparaît quelle correspond à une distribution suivant une loi de puissance, alors quelle est réduite à un pic pour des graphes réguliers et quelle suit une loi normale pour les graphes aléatoires. Il peut être intéressant dès lors de générer des graphes qui correspondent à une distribution particulière du nombre de liens par nud et de faire varier alors le facteur de répartition, dune répartition constante à uniforme (chaque catégorie de connectivité possède alors le même nombre de représentants ou en moyenne le même nombre) jusquà des répartitions exponentielles ou qui suivent une loi de puissance. Ce dernier point nous permet de jouer sur la répartition du nombre de liens en passant dun système égalitaire (tout le monde a le même nombre de liens) à un système de plus en plus inégalitaire (les individus ayant le plus grand nombre de liens sont de moins en moins nombreux et de plus en plus dindividus ont de moins en moins de liens).
Nous envisageons dintégrer à SimExplorer un module permettant de tester des variations sur les graphes dinteractions afin de tester linfluence de leur structure sur la dynamique. Pour cela, différentes stratégies dévolution du graphe sont possibles. Lutilisation dindices caractéristiques issus de la sociologie des réseaux (Wasserman et Faust, 1994 ; Bonacich, 1996), ainsi que des indicateurs de distribution spatiale, fournissent des indicateurs agrégés quil peut être intéressant dexaminer conjointement aux caractéristiques de la dynamique. Il est donc important de pouvoir disposer de tels outils qui peuvent grandement améliorer la compréhension du modèle au niveau global.
Lincorporation de telles méthodes dans SimExplorer permettrait de les utiliser systématiquement pour différents modèles. Cet outil devrait donc nous permettre daméliorer notre démarche dexpérimentation sur les modèles individus-centrés, en la rendant plus rigoureuse et plus systématique.
Bilan de lapproche proposée
Nous défendons une approche expérimentale de la simulation individus-centrée. Nous justifions cette position par la complexité des modèles computationnels, en particulier à cause de la déconnexion entre dynamiques individuelles et phénomènes collectifs. En effet, souvent la connaissance fine des dynamiques individuelles ne permet pas de déduire directement le comportement global du modèle. Une démarche expérimentale est donc nécessaire afin détablir les liens entre des variables agrégées décrivant le modèle globalement. A partir de la constatation expérimentale de tels liens, des modèles théoriques au niveau global peuvent être proposés. Cependant, la littérature fait plutôt apparaître un déficit de rigueur et de systématisation dans les expérimentations numériques sur les modèles individus-centrés.
Le projet SimExplorer vise à faciliter et améliorer cette démarche expérimentale, tout en tenant compte des spécificités des modèles individus-centrés. Il sagit de développer une interface de mise en uvre dexpérimentations sur des modèles individuscentrés. Cette interface proposera un ensemble de fonctions permettant de définir un plan dexpériences sur le modèle, et les variables agrégées à observer. Nous prévoyons aussi le développement de modules spécifiques permettant dexplorer linfluence de la répartition spatiale des individus, ou encore linfluence de la structure du graphe dinteractions entre les individus. Nous souhaitons la rendre adaptable à différents modèles le plus simplement possible et ainsi en faciliter lutilisation et la diffusion.
Nous pensons que cet outil permettra de faire progresser la réflexion sur les méthodes de traitement systématique des résultats. Nous pensons bien sûr aux méthodes de fouilles de données (Han et Kamber, 2000) qui offrent des perspectives séduisantes pour déterminer des régularités dans ces résultats. En outre, la démarche dexpérimentation prend son sens dans une itération entre la définition du plan dexpériences et lexploitation des résultats. Lautomatisation partielle de ce processus itératif est un défi passionnant que cette démarche permettra daborder dans le futur.
Multi-modélisation pour la compréhension dun modèle
Jouer sur la complexité des modèles
Dans le but de favoriser une meilleure gestion du processus de modélisation, notre expérience dans le domaine de la simulation sociale basée sur des simulations stochastiques de modèles individus-centrés dans le cadre dune approche multi-agents (Deffuant et al., 2000 ; Amblard et Ferrand 1998) nous conduit à proposer un framework particulier : DAMMASS. Cependant, même si notre domaine concerne principalement la conception et limplémentation de modèles sociaux qui reflètent des propriétés sociologiques, le framework proposé peut être intéressant pour des modélisateurs qui utilisent des modèles individus-centrés ; spécialement sils sont confrontés à des interactions complexes (Atlan 1979) entre les entités modélisées. Ce framework permet la gestion du processus de modélisation envisagé sous la forme dun ensemble de modèles de complexité computationnelle croissante. Il permet également de manipuler les différentes entités rencontrées, à savoir les Agents, les Interactions, lOrganisation et lEnvironnement au même niveau en tant que sous-modèles.
Décomposition des modèles sociaux
La modélisation de systèmes complexes peut impliquer la construction de modèles computationnels complexes. La gestion de cette complexité aussi bien dans la conception du modèle quau cours de son implémentation en utilisant des méthodologies de modélisation efficaces (Overstreet, 1982 ; Nance, 1987 ; Zeigler, 1990 ; Wagner et al., 1996 ; Zeigler et al., 2000) reste un challenge encore à lheure actuelle. Si ces dernières étaient mises au point dans le passé pour surpasser les faibles puissances computationnelles, les méthodologies sont utilisées maintenant pour affronter la complexité computationnelle et proposer des modes de construction qui permettent de lorganiser.
Une taxonomie pour la modélisation des systèmes a été introduite dans la terminologie multi-modèles dans le milieu des années 80 (Ören, 1984) et la technique appelée multi-modélisation dérive principalement des approches multi-formalismes (Zeigler, 1979). Un multi-modèle est considéré comme une composition de différents sous-modèles homogènes ou hétérogènes à plusieurs niveaux dabstraction. Cette approche permet la construction de modèles hiérarchiques de systèmes réels qui ne peuvent pas être simulés facilement en utilisant une approche monolithique (Fishwick, 1993 ; Fishwick, 1995). Les patrons de conception ont été largement discutés au cours des années 90 dans la communauté du génie logiciel (Gamma et al., 1995). Ils sont largement utilisés pour accroître la productivité logicielle par la réutilisation logicielle. Ils sappuient sur les concepts orientés-objets pour représenter les structures dabstractions logicielles à haut niveau. Le rôle des patrons de conception est de fournir des structures de conception logicielle qui peuvent être copiées ou adaptées à un nouveau système. Daprès Pree (1994), le concept de patron de conception peut être vu comme une abstraction de lactivité dimitation des programmeurs novices qui créent des parties de programmes, indirectement, en copiant des parties de programmes écrites par des programmeurs plus avancés. Généralement le paradigme dimitation nous permet de réduire la complexité, dans beaucoup de situations de la vie réelle comme dans le cadre du développement logiciel. Les patrons peuvent aider à produire des bonnes conceptions orientées-objet dans un contexte de modélisation environnementale (Campos et Hill, 1998). De nombreux patrons peuvent être utilisés pour la multi-modélisation (Hill et al., 2000). Malgré cette abondance il y a actuellement un besoin pour la conception de frameworks qui distinguent clairement les différentes parties du modèle. Les frameworks sont vus comme des macro-architectures logicielles, alors que les patrons peuvent être envisagés comme des micro-architectures. Nous proposons un outil de conception avec lhypothèse que le modèle est une collection de sous-modèles. Chacun dentre eux peut refléter différentes hypothèses émises à propos des individus, des processus dinteractions, de lenvironnement ou des organisations. Dans ce cadre, le réductionnisme peut nous aider comme outil méthodologique pour concevoir des classes dentités dans un modèle. Les principales classes que nous avons identifiées sont lAgent, la Relation, lEnvironnement et lOrganisation. Ils sont envisagés récursivement comme des sous-modèles et dans ce sens peuvent être composés de plusieurs sous-modèles (cf. Figure 3.13).
Figure 3.13 : Méta-modèle UML pour notre framework utilisant le patron de conception Composite (cf. Gamma et al., 1995).
Modèles généraux, modèles spécifiques et collections de modèles
La principale source de complexité que nous avons isolée dans la littérature en modélisation des systèmes sociaux provient dune part de lémergence deffets collectifs non spécifiés explicitement lors de lélaboration des comportements individuels et dautre part de la diversité des causes qui peuvent conduire à cette émergence. Face à cette contrainte pour modéliser ces systèmes, les chercheurs ont deux formes dapproches. Dune part, certains vont construire des modèles très simples, motivés par lobservation de propriétés émergentes à partir de caractéristiques particulières du comportement des individus par exemple la coopération, la ségrégation ou linfluence (Schelling, 1960 ; Axelrod, 1997 ; Epstein, 2001). Dautre part, certains construisent des modèles spécifiques, dans le but de comprendre un phénomène social spécifique dans un contexte détude donné et essayent de le faire correspondre à lexpertise ou aux données collectées (Deffuant, 2001 ; Nowak et Vallacher, 1998). Le but du modélisateur, qui est de modéliser un phénomène social général ou de lappliquer à un système social spécifique, permet de situer le modèle réalisé dans une des deux catégories.
Récemment, un courant de plus en plus observé tend à la réalisation de modèles qui sont plus ou moins des collections de modèles (Epstein et Axtell, 1996 ; Axelrod, 1997). En partant de modèles très simples, on ajoute des propriétés de manière incrémentale pour capturer de plus en plus de propriétés du système social modélisé (Drogoul, 2000). Par conséquent, les modèles croissent de plus en plus en complexité computationnelle. Il y a dès lors besoin dun framework qui ne prend pas comme point de départ la réalisation dun modèle isolé mais qui aide le processus de modélisation en permettant la manipulation de lensemble des modèles composant le processus de modélisation (cf. Figure 3.13).
Couplage de lapproche Vowels et de labstraction décroissante
Au cours de la modélisation de systèmes complexes, on a souvent recours au réductionnisme et il faut alors décomposer le système en sous-parties. Il sensuit que le modèle est alors un ensemble de sous-modèles. La décomposition en plusieurs parties, pour quelle soit compréhensible et incluse efficacement dans le processus de modélisation, doit être réalisée en suivant un framework général qui organise les sous-modèles. Dans ce cadre, nous utiliserons lapproche VOWELS (Demazeau, 1995). Par comparaison avec dautres frameworks qui se focalisent souvent sur la conception de lagent et de plusieurs niveaux dorganisations (Ferber et Gutknecht, 1998 ; Campos et Hill, 1998). La méthodologie VOWELS est principalement caractérisée par lusage primitif, récursif et égal des sous-modèles dAgents, dEnvironnement, dInteractions et dOrganisations pour résoudre des problèmes ou simuler des systèmes.
Comme cette approche nous donne un cadre pour décomposer un modèle donné, nous devons clairement définir un processus de modélisation associé qui permet les étapes classiques en simulation, à savoir la conception, limplémentation, la vérification et la validation (Hill, 1995 ; Kleijnen, 1995 ; Hill et al., 1996 ; Balci, 1998). De plus, parce que nous croyons quune famille de modèles est plus riche dinformations pour le modélisateur quun seul, le processus de modélisation doit expliciter le moyen de passer dun modèle à lautre en suivant la croissance en complexité et la décroissance en abstraction. Pour le processus de modélisation nous avons alors choisi la méthodologie dabstraction décroissante (Lindenberg, 1992). Nous commençons ainsi par des modèles simples mais abstraits représentant des caractéristiques générales puis nous y ajoutons des propriétés pour modéliser des phénomènes plus réalistes. Cest la méthode choisie par Epstein et Axtell (1996) dans Sugarscape, commençant avec un modèle très simple de lenvironnement et des agents très frustres (ils bougent et ils mangent) et en accroissant les propriétés de lenvironnement, en ajoutant des ressources par exemple et en allant plus loin dans la conception comportementale de lagent (reproduction/mort, métabolisme, motifs culturels). Le point final du processus est un modèle aussi complexe que nécessaire, mais aussi simple que possible.
Cette approche permet de valider de manière plus sécurisée le modèle final, car elle fournit une description plus complète du système réel, à différents grains. Le premier modèle simple nous permet de comprendre les propriétés dynamiques basiques du modèle. Nous les faisons correspondre avec des propriétés générales provenant par exemple de la littérature sociologique, en définissant une similarité entre la structure du système réel et la structure du modèle. Par exemple pour la diffusion dopinions dans une population, plusieurs groupes dopinions peuvent être partagés par des groupes dindividus alors le modèle de base doit exprimer ce type de dynamique (Deffuant et al., 2000). Nous ajoutons alors progressivement des propriétés (plusieurs opinions en compétition, des poids sur chaque opinion) au modèle pour le faire correspondre au système-cible spécifique, en comparant les sorties du modèle à lexpertise et aux données collectées. La granularité du modèle est alors augmentée progressivement jusquà ce que le modèle semble trop détaillé par rapport aux données observées sur le système modélisé.
DAMMASS
Le Framework proposé
De manière à se conformer aux conditions énoncées ci-dessus, nous retenons larchitecture de framework suivante pour la conception et la simulation de modèles sociaux multi-agents. (cf. Figure 3.14).
Figure 3.14 : Architecture générale du framework à partir de (Campos et Hill, 1998)
Cette architecture dérivée du fameux patron de conception MVC (Model View Controller) est détaillée dans la thèse de Campos (2000) et elle est divisée en trois parties. Le Simulateur gère tous les points concernant lexécution du modèle. La partie Modèle détaillée ci-dessous (cf. Figure 3.15) contient toutes les classes concernant le modèle lui-même. Linterface permet à lutilisateur de paramétrer le Simulateur et le Modèle indépendamment, pour observer la simulation en cours dexécution et ses résultats.
Figure 3.15 : Le paquetage Model du framework (notation UML).
Pour aller plus loin sur la partie Modèle, nous allons détailler le paquetage modèle. « Entité » est le terme générique pour désigner un objet du modèle. Une entité possède des états et des fonctions de transition pour passer dun état à un autre. Nous catégorisons les entités du modèle en entités actives et en entités passives. Les entités actives sont activables directement par le simulateur. Elles ont un certain comportement à des pas de temps discrets alors que les entités passives actualisent leur état à partir dévènements internes au modèle. Nous divisons alors les entités actives en deux sous-groupes: les relations et les entités en interaction. Les relations lient deux entités en interaction et chacune delles peut agir sur les relations dans lesquelles elle est impliquée. Les relations peuvent être conçues comme un ensemble de relations pour modéliser différents types dinteractions qui arrivent entre deux entités données. De la même manière, une entité en interaction peut être conçue récursivement comme un ensemble dentités de manière à modéliser plusieurs types dorganisations. Les entités en interaction sont elles-mêmes divisées en trois sous-groupes : lOrganisation, lAgent, et lEnvironnement qui sont les composants de la méthodologie de modélisation retenue, la méthodologie VOWELS.
Quatre axes pour accroître le réalisme
En appliquant labstraction décroissante énoncée précédemment, nous pouvons, avec un modèle donné, faire décroître son abstraction pour accroître son réalisme suivant un (ou plusieurs) de ces quatre axes :
- Le modèle de lAgent : les propriétés internes de lindividu, comme par exemple son système de représentation ou son système décisionnel, peuvent être plus détaillées. Cela inclut la possibilité dajouter de nouveaux comportements au modèle de lagent.
- Le modèle de Relation : les interactions qui peuvent avoir lieu entre des entités (Agent, Organisation et Environnement) peuvent être détaillées davantage. Cela peut concerner les échanges entre deux entités ou un protocole de communication plus détaillé. En fait, nous pourrions considérer quil y a autant daxes Relation pour accroître le réalisme quil y a de relations possibles entre les différentes catégories dentités.
- Le modèle dOrganisation : il implique une croissance des caractéristiques prises en compte par lorganisation, par exemple lintroduction de niveaux dorganisation dans une organisation existante ou de nouveaux comportements de groupes dans un modèle.
- Le modèle de lEnvironnement : la croissance en réalisme doit correspondre à lajout de critères environnementaux (herbes, eau, niveau de nitrates par exemple) et à leur dynamique.
Limpression dindépendance entre ces axes peut être cependant trompeuse. Cette décomposition implique de toute évidence certaines dépendances entre les axes. Par exemple, nous identifions un couplage majeur entre le modèle dagent et le modèle de relation en ce sens quaugmenter la granularité du modèle dinteraction implique souvent daugmenter la granularité du modèle dagent. Pour illustrer cette dépendance, le modèle dinteractions peut représenter le moyen par lequel les agents influencent chacun lopinion de lautre. Alors le processus dinfluence met en relation les attributs dopinions des individus. Augmenter le modèle dinteractions peut impliquer lintroduction de nouvelles variables ou de nouveaux attributs, comme la transmission dinformation et potentiellement des dynamiques correspondantes dans le modèle de lagent, comme le traitement de cette information pour construire ou renforcer les opinions. Malgré tout, ce nest pas toujours le cas et laccroissement en complexité du modèle dinteractions doit parfois être un changement dans la structure du modèle de cette influence. Nous pouvons par exemple partir dune influence moyenne du voisinage social de lindividu et progresser vers un modèle dinteractions à seuil dans lequel les individus seront influencés par leurs voisins seulement si la différence entre leurs opinions est inférieure à un seuil donné qui est un attribut de linteraction. Nous accroissons alors le réalisme du modèle dinteractions tout en laissant inchangés les attributs dun modèle dagent.
Laxe choisi pour atteindre le modèle suivant dans le processus de modélisation dépend beaucoup du modèle en question. Malgré cela, quelques règles ou heuristiques peuvent être recensées brièvement. Prenons un modèle qui utiliserait chacun des quatre composants précédents, un piège à éviter semble être de trop accroître la complexité suivant un seul des quatre axes sans en faire de même sur les autres. Il semble quun bon modèle doit garder une certaine homogénéité concernant la complexité de ses composants. Une autre heuristique qui peut être indiquée apparaît lorsque nous voulons accroître le réalisme dun modèle. Nous commençons souvent par accroître le réalisme du processus dinteraction. Ce dernier est souvent celui qui influe le plus sur la dynamique du modèle global et il implique souvent des changements sur les autres axes.
Bilan de lapproche proposée
De manière à accompagner la conception de modèles en suivant une abstraction décroissante, nous avons proposé un framework, DAMMASS, qui prend en compte une hiérarchie dentités de manière organisée dans les modèles. La collection de modèles qui en résulte permet dune part de garder une trace du processus de modélisation de manière à développer un modèle final délivrable. Dautre part, il permet de délivrer une collection de modèles du plus simple au plus réaliste. Il permet déclairer le phénomène social étudié et les propriétés dynamiques générales des modèles-racines. Il permet également de comprendre davantage la croissance en complexité des modèles de manière à correspondre davantage à la réalité observée, en plaçant au premier plan les hypothèses prises pour passer dun modèle au suivant.
Au niveau dun modèle, le framework proposé permet, en adaptant un réductionnisme par classes dentités, daccroître le réalisme du modèle dans une ou plusieurs directions identifiées qui sont : lAgent, la Relation, lEnvironnement ou lOrganisation. Cette décomposition permet didentifier clairement la manière dont le modèle croît en complexité et de manipuler pratiquement indépendamment les sous-modèles correspondant à la décomposition.
Nous avons appliqué ce framework dans le cadre des modèles de dynamiques dopinions, en accroissant progressivement le réalisme ou la complexité de nos modèles. Nous lillustrerons au cours de la troisième partie.
Jouer sur le formalisme utilisé
Pour nuancer un peu notre propos concernant la relative linéarité qui semble apparaître à la lecture du framework DAMMASS, il nous faut préciser que les allers-retours entre niveaux de complexité des modèles sont fréquents et nécessaires. Ainsi, simplement suggéré par la difficulté à obtenir de la connaissance sur un modèle trop complexe, le modélisateur sera naturellement incité à travailler sur une version simplifiée de celui-ci, au moins temporairement. Ainsi, le modèle sur lequel nous avons travaillé au cours de cette thèse sinscrit comme une composante dun modèle beaucoup plus vaste, le modèle IMAGES (Deffuant, 2001) dédié à la modélisation de ladoption de mesures agri-environnementales de la PAC par les agriculteurs. Ce dernier intègre ainsi de nombreux autres processus tels que la transmission de linformation entre les individus, une composante économique pour lévaluation de la mesure, les acteurs institutionnels et les réseaux sociaux. Face à la difficulté de comprendre un tel modèle, nous avons ainsi adopté lapproche qui consiste à mieux connaître chacun de ses composants pour tenter de comprendre davantage le fonctionnement du modèle global. Dans ce cadre de réduction de la complexité par la focalisation sur des sous-modèles, un aspect important semble également être le changement de formalisme. Ainsi sur le modèle le plus simple, nous avons proposé (Deffuant et al., 2001a) une solution analytique pour calculer le nombre de groupes dopinions apparaissant dans la population en fonction des paramètres de celle-ci. De même dans le modèle daccord relatif, nous avons eu recours à une modélisation alternative du modèle sous forme déquation maîtresse (Faure et al., 2002). Cependant, dans la partie applicative que nous allons présenter, le cheminement suit à quelques exceptions près celui décrit par le framework DAMMASS. Ainsi, dun modèle à seuil fixe, nous sommes passés à un modèle à seuil dynamique, puis nous avons évolué vers un modèle également à seuil dynamique, mais qui comprend des hypothèses différentes, pour introduire ensuite une hétérogénéité dans la population (les extrémistes), et enfin travailler sur la structure dinteractions (le réseau social). Nous présenterons à nouveau larticulation entre ces différents modèles dans le chapitre suivant.
Conclusion
Dans cette partie nous avons présenté des méthodes pour encadrer une démarche de type expérimentale pour la compréhension du fonctionnement de simulations sociale individus-centrées. Nous avons présenté notre approche suivant deux directions.
Nous avons tout dabord présenté la mise en place doutils pour la gestion dun processus expérimental sur des modèles de simulation. Nous avons ainsi exposé lapproche méthodologique suivant laquelle plusieurs points de vue pouvaient exister pour observer ou mesurer le comportement dun modèle individus-centré :
- observer un individu au cours dune simulation,
- observer une population dindividus comme une somme dindividus au cours dune simulation,
- observer la population dindividus comme un comportement collectif singulier au cours dune simulation,
- observer les autres éléments du modèle, notamment lenvironnement et le graphe dinteraction et leur évolution au cours de la simulation,
- observer les couplages qui existent entre les différentes entités du modèle,
- caractériser de manière synthétique le comportement du modèle dans des conditions données,
- observer des populations de simulations dans lespace des paramètres.
Ces différents points de vue sappuient sur le méta-modèle présenté dans la partie précédente. Nous avons de plus insisté sur la complémentarité de ceux-ci pour la compréhension globale du modèle et placé en avant la nécessaire mise en place de solutions logicielles génériques pour accompagner cette démarche. Nous avons alors présenté le prototype dune de ces solutions, le cadriciel SimExplorer, concernant la gestion des plans dexpériences dans le cadre de lexploration systématique de modèles, pour explorer donc des populations de simulations dans lespace des paramètres.
La deuxième direction que nous avons présentée sinscrit davantage dans un cadre de multi-modélisation. Nous avons défendu lintérêt dune approche qui consiste à développer plusieurs modèles, à des niveaux dabstractions différents et avec des formalismes éventuellement différents, ceci non seulement pour comprendre le phénomène modélisé mais surtout dans notre cadre pour comprendre le fonctionnement des différents modèles réalisés. Nous avons ainsi présenté un framework, DAMMASS, qui envisage le modèle comme une composition de sous-modèles dont les principaux identifiés sont les sous-modèles de lAgent (ou de lindividu), des Relations (le modèle du graphe dinteraction sous-jacent), de lEnvironnement et de lOrganisation. Dans ce cadre nous avons envisagé les relations entre modèles comme des relations correspondantes à des augmentations ou des diminutions de complexité des sous-modèles. Ce framework permet de naviguer dans une collection de modèles situés à des niveaux de complexité différents pour que les connaissances acquises concernant le fonctionnement dun modèle particulier puisse avantager la compréhension du fonctionnement de modèles plus complexes.
Concernant le prototype du cadriciel SimExplorer, des travaux sont actuellement en cours pour en réaliser une version stabilisée. Nul doute quau cours de lutilisation de ce cadriciel sur différents modèles, de nouveaux éléments vont apparaître qui permettront den accroître les fonctionnalités mais également la généricité.
Concernant le framework DAMMASS, si celui-ci a été effectivement sur le cas détude que nous présenterons dans la partie suivante, nous manquons actuellement de recul et il faudrait lutiliser sur quelques autres cas typiquement différents, en particulier en incluant une composante environnementale, pour le valider comme framework a part entière.
De manière à illustrer le propos présenté dans cette partie, nous allons, dans la partie suivante, présenter le travail réalisé sur une collection de modèles individus-centrés pour la modélisation de dynamiques dopinions.
« C'est souvent du hasard que naît l'opinion,
Et c'est l'opinion qui fait toujours la vogue.
Je pourrais fonder ce prologue
Sur gens de tous états: tout est prévention,
Cabale, entêtement; point ou peu de justice:
C'est un torrent; qu'y faire? Il faut qu'il ait son cours:
Cela fut et sera toujours. »
La Fontaine, Fables (Livre VII, Fable 15), Les Devineresses.
La modélisation des dynamiques dopinions
Introduction
En suivant ainsi la démarche expérimentale présentée dans le paragraphe précédent, nous allons présenter ici la partie applicative de nos travaux. Ces travaux sont centrés autour de la modélisation individus-centrée de dynamiques dopinions mais il nous semble important ici de rappeler quelques éléments de contexte. Ce travail et les modèles en découlant ont été réalisés dans le cadre plus large de la modélisation par la simulation individus-centrée de ladoption de nouvelles mesures agri-environnementales par les agriculteurs. Lapproche individus-centrée a été retenue à ce moment-là, et a été conservée par la suite, puisquelle nous permettait de proposer des modèles des individus de la population. Ainsi, cette approche nous a permis dintroduire un certain nombre déléments cruciaux pour cette approche, comme la prise en compte dune hétérogénéité importante de la population ou des éléments liés à la répartition de la population sur le territoire et de plus dinclure une connaissance importante au sujet du comportement des individus de cette population. Ce travail collectif (Deffuant, 2001) mêlant des équipes dexperts des systèmes agricoles et des équipes de modélisateurs a débouché sur la réalisation dun modèle suffisamment complexe pour que seule lapproche boîte noire, pour son exploration, soit envisageable. Ainsi, face à ce modèle important, couplant à la fois diffusion dinformation, réseaux sociaux, calcul économique et dynamique dopinions, il nous était seulement possible de tenter de corréler des entrées et des sorties moyennes (le modèle étant stochastique, de nombreuses réplications étaient nécessaires pour chaque ensemble de valeurs dentrée). Cependant, cette approche boîte noire ne nous permet pas de comprendre le fonctionnement intime du modèle, les raisons des corrélations observées. Il nous a donc fallu dans une deuxième phase redescendre au niveau des sous-modèles pour les étudier de manière plus systématique. Ainsi, un de ces modèles, le modèle de dynamiques dopinions, a fait lobjet de ce travail de thèse. Lobjectif de cette partie nest donc pas de proposer un modèle valide et de vérifier sa validité par rapport à des études empiriques ou des données collectées, mais plutôt de comprendre le fonctionnement de cette entité artificielle, puisque fabriquée par la main de lhomme et dont le comportement, nest pas pour autant appréhendable en première instance, bien que le modèle soit relativement simple.
De plus dans le cadre de ce travail, nous avons suivi la méthodologie dabstraction décroissante, en partant dun modèle simple et en ajoutant ou modifiant des hypothèses sur ce modèle. Ainsi, létude dun modèle donné (ou dune hypothèse donnée) a été menée à chaque phase en bénéficiant des connaissances accumulées préalablement sur des modèles plus simples. Cette démarche incrémentale nest cependant pas univoque puisque par endroits, pour vérifier la généricité de certaines propriétés, nous avons testé certaines hypothèses sur des versions plus simples ou différentes du modèle.
Dans cette partie, nous présenterons ainsi successivement un premier modèle de dynamiques dopinions continues avec influence locale bornée ; tout dabord en population homogène, puis en introduisant une hétérogénéité dans la population. Ensuite nous avons, au regard du comportement du modèle précédent, proposé un second modèle : le modèle dinfluence proportionnelle à laccord relatif. Ce modèle a tout dabord été testé dans des conditions dhomogénéité de la population, puis en introduisant une hétérogénéité corrélée à lopinion, en loccurrence ce que nous appellerons des extrémistes dans la population. Enfin ce même modèle a été étudié en introduisant un réseau social qui contraint les interactions entre les individus de la population.
Modèle dinfluence bornée
Comme nous lavons vu dans létat de lart, de nombreux modèles de dynamiques dopinions (Föllmer, 1974 ; Arthur, 1994 ; Orléan, 1995 ; Latané et Nowak, 1997 ; Galam, 1997 ; Weisbuch et Boudjema, 1999), reposent sur des opinions binaires ou discrètes que les individus du modèle mettent à jour en fonction de linfluence sociale quils reçoivent ou subissent.
Les dynamiques dopinions binaires conduites par des processus dimitation ont été bien étudiées. Dans la plupart des cas lattracteur de cette dynamique conduit à une uniformité des opinions, soit 1 soit 0, quand les interactions ont lieu parmi la population toute entière (i.e. dans le cas dun réseau social complètement connecté). Ce comportement, similaire à la fable des moutons de Panurge, est souvent décrit par les économistes (Föllmer, 1974 ; Arthur, 1994 ; Orléan, 1995). Des groupes dopinions opposées apparaissent lorsque les interactions ont lieu sur un réseau social, (un graphe dinteraction non complet et souvent loin de la saturation en nombre de liens), ce dernier restreignant les échanges aux individus connectés. Le regroupement est renforcé lorsque lon introduit de la diversité ou de lhétérogénéité parmi la population dindividus, par exemple une hétérogénéité de linfluence, (Latané et Nowak, 1997 ; Galam, 1997 ; Weisbuch et Boudjema, 1999).
Une piste de recherche intéressante concerne limportance de lhypothèse binaire ou de choix discret. Que se passerait-il si lopinion des individus était une variable continue comme lévaluation dun choix (une utilité en économie par exemple) ou certaines croyances sur lajustement dun paramètre de contrôle (budget par exemple) ?
A priori nous pouvons penser que lhypothèse dopinions continues conduit également à une homogénéisation vers la moyenne des opinions initiales dans la population (Laslier, 1989).
Dans le premier modèle que nous allons présenter, le modèle dinfluence bornée (que nous pourrons appeler par commodité modèle BC pour Bounded Confidence), les individus ont des opinions continues et ils interagissent uniquement si la différence entre leurs opinions est en dessous dun certain seuil, cest-à-dire si leurs opinions sont suffisamment proches. Ce seuil a été introduit pour que les individus interagissent uniquement avec les individus de la population avec lesquels ils sont suffisamment proches. Dans le cas contraire, si deux individus ont des opinions trop éloignées, ils ne sont pas influencés. Ce comportement peut modéliser des comportements comme le manque de compréhension, les conflits dintérêts ou la pression sociale. Le seuil correspond alors à une forme douverture desprit : plus il est élevé, plus les individus ont tendance à prendre en compte largement les opinions autour deux. Par la suite, nous pourrons également donner une interprétation de ce seuil comme symbole dune incertitude autour de cette opinion. Les individus ayant une opinion associée dune incertitude sur cette opinion, ne tiennent pas compte des opinions qui se situent en dehors de leur zone dincertitude. Ce modèle étant dune abstraction relativement élevée, ce simple paramètre rend compte dune agrégation de caractère de ce type : incertitude, ouverture desprit, manque de confiance, recherche plus ou moins intensive dinformation ou de confirmation.
Le modèle
En utilisant notre méta-modèle, le modèle BC peut-être exprimé comme BC={A, T}. Nous nincluons donc ni environnement, ni graphe dinteractions (il pourrait néanmoins être considéré comme complet), ni facteurs exogènes.
La population A est composé de N individus Ai : |A|=|{Ai}|=N
Chaque individu Ai possède deux variables détat, son opinion xi et lincertitude associée ui : Xi=(xi , ui). Nous initialisons lensemble des opinions de la population par une distribution uniforme sur [-1,1] et lincertitude des individus est homogène sur lensemble de la population et notée u. Ainsi, EMBED Equation.3 .
u pourra être considéré dans ce cas comme un des paramètres globaux du modèle.
Concernant la gestion du temps T, le scheduling est asynchrone et la cardinalité de linfluence de type 1-1. A chaque itération, deux individus Xi et Xj sont pris au hasard dans la population et leur fonction de transition est activée.
La fonction de transition fi de lindividu met à jour son opinion xi lorsque la différence entre les opinions des deux individus sélectionnés est inférieure en valeur absolue à lincertitude u. Ainsi, soit xi et xj les opinions des deux individus sélectionnés, la fonction fi correspond à la mise à jour suivante :
si EMBED Equation.3 , EMBED Equation.3 (Eq.4.1)
où µ est un paramètre global du modèle inclus dans la fonction de transition (la vitesse de convergence ou le taux de rapprochement entre les deux individus) dont la valeur est comprise entre 0 et 0.5.
Influence de lincertitude u
Dans cette partie, lincertitude u est identique et constante pour toute la population. Lévolution des opinions peut être prédite mathématiquement dans le cas limite de petites valeurs de u (Neau, 2000). Les variations de densité EMBED Equation.3 des opinions x suivent la dynamique suivante :
EMBED Equation.3 (Eq.4.3.)
Ceci implique quen partant dune distribution initiale des opinions, chaque densité locale plus élevée dans la distribution est amplifiée. Les pics dopinions saccroissent et les « vallées » sont creusées jusquà ce que ne restent plus que des pics étroits parmi un désert dopinions intermédiaires.
Les simulations montrent que la distribution dopinions dans ce cas évolue jusquà former des groupes dopinions homogènes (à convergence). Pour des valeurs élevées de lincertitude (u > 0.6) un seul groupe est observé. Il correspond à la moyenne des opinions initiales. La figure 4.1 représente lévolution des opinions dans le temps en partant dune distribution uniforme des opinions.
Les graphiques 3D représentent lévolution des histogrammes des segments dopinions (lopinion xi de lindividu Ai et lincertitude u autour de cette opinion permettent de définir le segment dopinion [xi-u, xi+u]. Laxe z mesure le nombre dindividus dont le segment inclut lopinion x donnée sur laxe x. Pour des incertitudes plus faibles, plusieurs groupes peuvent être observés (cf. Figure 4-2).
Figure 4-1: Graphique de lévolution des opinions (u = 1, µ = 0.5, N = 2000). Une itération correspond à N interactions entre des paires dindividus.
Figure 4-2: Graphique de lévolution des opinions pour un seuil d plus faible (u = 0.4 µ = 0.5 N = 1000 ). Une itération correspond à N interactions entre des paires dindividus.
Un autre moyen de suivre lévolution des opinions des individus est de représenter les opinions finales des individus en fonction de leur opinion initiale. La figure 4-3 montre comment les opinions finales reflètent les opinions initiales pour µ=0.5 et u=0.1. Des recouvrements sur les opinions initiales sont observés à la frontière des groupes. Ce recouvrement observé pour µ=0.5 est fortement réduit pour des valeurs plus faibles de µ (non représenté ici), les individus ont alors davantage de temps pour faire leur choix puisque les opinions évoluent alors plus lentement.
Figure 4-3 : Diagramme représentant les opinions finales (axe des ordonnées) en fonction des opinions initiales (axe des abscisses) pour µ=0.5 et u=0.1 (la distribution initiale des opinions a été réalisée uniformément ici entre 0 et 1) (Weisbuch et al., 2002a).
Après avoir conduit un nombre important de simulations, nous avons observé que la dynamique dépend principalement de lincertitude u. Les paramètres µ et N influencent uniquement le temps de convergence et la largeur de la distribution des opinions finales (quand un grand nombre déchantillonnages aléatoires est réalisé). u contrôle le nombre de groupes de la distribution finale des opinions (cf. Figure 4-4). Le nombre maximum de groupes, noté pmax, décroît en fonction de u. Une évaluation de pmax repose sur une distance minimale de 2u entre les groupes, toutes les opinions intermédiaires étant attirées par lun des groupes. Une distance minimale de u entre les pics extrêmes et les bornes de la distribution nous donne pmax=[1/2u], soit la valeur de la partie entière de 1/2u en accord avec les observations réalisées sur la figure 4-4.
Figure 4-4. Statistiques du nombre de groupes dopinions en fonction de u sur laxe des x pour 250 réplications (µ=0.5, N=1000). (Deffuant et al., 2001a).
Le fait que la population soit finie permet quelques légères variations dues à la sélection aléatoire pour les valeurs intermédiaires de u. Cette influence de la taille de la population sest confirmée en étudiant des tailles de populations différentes. Dans les régions intermédiaires nous observons également des groupes réduits (un faible pourcentage) à proximité des bornes de la distribution initiale : 1 et 1.
Extensions du modèle BC
Plusieurs extensions de ce modèle ont été étudiées par la suite, par nous ou par dautres personnes. Nous en listons ici quelques-unes pour permettre au lecteur de sy référer :
- Cas dune population hétérogène : nous avons étudié (Weisbuch et al., 2002a) le cas dune population hétérogène en incertitude, une partie de la population ayant une incertitude faible ul et lautre partie ayant une incertitude plus élevée uL. Le principal résultat qualitatif est que les individus qui ont une incertitude faible tendent à se regrouper vers un état méta-stable correspondant au cas homogène avec lincertitude ul. Les individus qui ont une incertitude plus forte uL font action de médiateurs entre ces groupes, jusquà ce que ces derniers suffisamment proches finissent par fusionner. La convergence finale correspond alors à la convergence dans le cas homogène pour une incertitude uL.
- Introduction dune dynamique sur lincertitude : dans (Weisbuch et al., 2002b) nous avons introduit et étudié deux types de dynamiques dincertitudes : des incertitudes moyennantes et des incertitudes construites à partir dune estimation de la variance des opinions dans la population à partir des individus rencontrés. Ces modèles ont été étudiés à nouveau dans le cadre de lintroduction dextrémistes dans la population (Deffuant et al., 2002a).
- Introduction dun graphe dinteractions : des études ont été menées pour comprendre linfluence dun graphe dinteraction sur ce modèle. En particulier dans le cas dun graphe à invariance déchelle, Stauffer et Meyer-Ortmanns (2003) et Weisbuch (2003) se sont intéressés aux processus de regroupement (nombre de groupes, répartition et recrutement des individus dans les groupes).
- Discrétisation de lopinion : plusieurs travaux ont également pris ce modèle comme base pour travailler sur des dynamiques dopinions discrètes, par exemple en introduisant une discrétisation lors de linteraction (Urbig, 2003) ou en adaptant le modèle pour le traitement dopinions discrètes (Stauffer et Sousa, 2003).
- Vecteurs dopinions : le cas dopinions discrètes a également été étudié en adaptant le modèle à des vecteurs dopinions binaires, la condition dinteraction portant alors sur la distance de Hamming entre vecteurs (Deffuant et al., 2001 ; Weisbuch et al., 2002a, Weisbuch et al., 2002b ; Klemm et al., 2003). (Laguna et al., 2003) ont également étudié linfluence dun graphe dinteraction à invariance déchelle dans ce cas.
Modèle dinfluence proportionnelle à laccord relatif
Cependant, des éléments du modèle exposé précédemment vont à lencontre de notre représentation du système. Ainsi, lorsque nous observons dans le modèle BC, le changement dopinion dun individu sous linfluence dun autre (cf. Figure 4-5) nous pouvons remarquer que ce changement augmente en fonction de la distance entre les deux opinions.
Figure 4-5 : Représentation du changement dopinion de lindividu i sous linfluence de lindividu j.
Compte-tenu du fait que plus les individus sont proches moins ils ont à se rapprocher, ce changement nest pas particulièrement contre-intuitif. Cependant, dès que nous franchissons la limite dinfluence, le changement dopinion décroît brutalement de son maximum à une influence nulle.
De manière à corriger cette propriété du modèle précédent, nous avons donc été amenés à en proposer un nouveau, le modèle dinfluence proportionnelle à laccord relatif entre individus, que nous noterons dans la suite : modèle RA (Relative Agreement). Ce modèle peut être vu comme une extension du modèle BC.
Le modèle daccord relatif
Comme dans le modèle précédent, nous pouvons noter ce modèle RA={A,T}.
Nous considérons ainsi une population A de N individus. Chaque individu Ai est toujours caractérisé par deux variables réelles : son opinion xi et son incertitude ui. Ainsi, nous avons toujours Xi=(xi , ui). Nous appellerons le segment si = [xi - ui, xi + ui], segment dopinion de lindividu Ai. Lensemble des opinions de la population est initialisé arbitrairement à partir dune distribution uniforme sur [1 ; +1].
La gestion du temps T dans le modèle est restée inchangée. Ainsi, nous supposons que des interactions ont lieu aléatoirement par paires dindividus (Ai , Aj) de la population (cas complètement connecté).
Concernant la fonction de transition fi, Le changement dopinion xj de l'individu Aj sous l'influence de l'individu Ai est proportionnel à la superposition entre leurs deux segments dopinions (l'accord), divisée par l'incertitude de lindividu Ai. Quand les individus ont des incertitudes différentes, l'influence réelle est alors dissymétrique, du fait de la division par l'incertitude de l'individu influençant (cf. Figure 4-6).
Plus précisément, considérons les segments si = [xi - ui, xi + ui] et sj = [xj uj, xj + uj], nous définissons laccord de lindividu Ai avec Aj (il faut noter ici que laccord nest pas symétrique) comme la différence entre la partie recouverte de si et sj, soit la partie de leur segment dopinions quils ont en commun, et la partie non-recouverte de si , cest-à-dire la partie de si sur laquelle lopinion de Ai est différente de celle de Aj (Fig. 4-6).
Figure 4-6 : L'individu Ai influence l'individu Aj (respectivement d'opinions xi et xj et d'incertitudes ui et uj), hij est le recouvrement de si et sj et 2ui-hij est la partie de sj non-recouverte avec si. A droite, les lignes en pointillés et continues représentent la position du segment avant et après interaction.
Le recouvrement hij est ainsi :
EMBED Equation.3 (Eq. 4.4)
Et la largeur de la partie non-recouverte est donc :
EMBED Equation.3 (Eq. 4.5)
Laccord de Ai avec Aj est donc la différence entre la partie recouverte et celle qui ne lest pas, soit :
EMBED Equation.3 (Eq.4.6)
Laccord relatif correspond alors à laccord divisé par la longueur de si :
EMBED Equation.3 (Eq. 4.7)
La fonction de transition fi des individus est alors :
Si EMBED Equation.3,
EMBED Equation.3 (Eq. 4.8)
EMBED Equation.3 (Eq. 4.9)
Où µ est un paramètre global du modèle dont lamplitude contrôle la vitesse de la dynamique.
Si EMBED Equation.3 , il ny a pas dinfluence de Ai sur Aj.
Les principales caractéristiques de ce modèle sont les suivantes:
- Au cours des interactions, les opinions et les incertitudes associées peuvent être modifiées.
- Linfluence nest pas symétrique : quand les deux individus ont des incertitudes différentes, les individus plus sûrs deux (faible incertitude) sont plus influents.
- Les modifications de xj et uj varient de manière continue quand xj, uj, xi et ui varient de manière continue (cf. Figure 4-7), ce qui nest pas le cas pour le modèle BC.
Figure 4-7 : A gauche, tracé de laccord relatif de Ai avec Aj en fonction de xi, pour différentes valeurs de ui. A droite, tracé des variations de xj en fonction de xi, pour différentes valeurs de ui.
Cas dune population homogène en incertitude
Nous commençons par étudier le cas dune population homogène en incertitude. Compte-tenu de la transformation de lincertitude par la fonction de transition, cela nous conduit donc à avoir une incertitude semble pour tous les individus, qui reste constante au cours de la simulation. Ainsi, EMBED Equation.3 .
Le comportement général du modèle est dans ce cas assez similaire à celui du modèle BC: les maxima locaux de densité dopinions tendent à samplifier en absorbant les opinions situées à une distance u. Le modèle converge vers la formation de groupes dopinions, plus ou moins également distribués, suivant la distribution initiale des maxima locaux. Pour une incertitude initiale constante u pour toute la population, et pour une distribution initiale uniforme de largeur w, le nombre moyen de groupes est alors proche de w/2u.
Figure 4-8 : Exemple de simulation avec une incertitude identique pour lensemble de la population
(ici u=0.4 et w=2.0).
Figure 4-9 : Tracé du nombre moyen de groupes en fonction de w/2u (w est la largeur de la distribution initiale et u lincertitude des individus). Chaque point représente le nombre final de groupes moyénnés sur 50 simulations (les individus isolés nétant pas considérés comme des groupes). Le nombre de groupes moyen est proche de w/2u (r2=0.99), alors quil était proche de la partie entière de w/2u pour le modèle BC.
Introduction dextrémistes dans le modèle daccord relatif
Lintroduction dextrémistes dans la population correspond à un cas particulier dintroduction dhétérogénéité sur lincertitude. Celle-ci nest pas introduite de manière homogène dans la population, mais dépend de caractéristiques particulières des individus. Dans ce cas, nous aurons donc à linitialisation une population qui nest pas homogène en incertitude et daprès la fonction de transition, lincertitude des individus va donc évoluer au cours de la simulation.
Introduction des extrémistes
Nous introduisons dans la population une hétérogénéité en incertitude, cette hétérogénéité conduit à deux classes de population, les extrémistes et les modérés. Nous introduisons les extrémistes dans notre population en supposant que ces derniers, situés aux extrémités de la distribution dopinions, sont plus sûrs deux (leur incertitude est plus faible). Nous notons ue lincertitude initiale des extrémistes, et U, lincertitude initiale des modérés, nous supposons donc que ue < U. Nous notons pe la proportion dextrémistes dans la population, p+ et p- sont les proportions dextrémistes respectivement situées aux extrémités positives et négatives de la distribution dopinions. La différence relative entre les proportions dextrémistes positifs et négatifs est alors :
EMBED Equation.3 (Eq. 4.10)
En pratique, nous déterminons les opinions initiales de notre population en suivant une loi uniforme entre 1 et 1, puis nous associons aux N.p+ opinions les plus positives et aux N.p- les plus négatives lincertitude ue, les autres ayant lincertitude U.
Les attracteurs : bipolarisation ou polarisation unique
Ce modèle très simplifié de lextrémisme, exhibe trois régimes dynamiques différents. Ainsi, nous observons des zones de paramètres pour lesquelles les extrémistes ont une faible influence sur le reste de la population, et dautres pour lesquelles au contraire, la majorité de la population devient extrémiste, en convergeant vers les deux extrêmes, ou vers un seul. Lensemble des figures qui suivent exhibe ces différents régimes dynamiques sans chercher pour linstant à identifier linfluence des paramètres sur lapparition de ceux-ci. Pour chacune des figures, laxe des abscisses représente le temps (en nombre ditérations), laxe des ordonnées représente les opinions, et léchelle des couleurs lincertitude (lincertitude augmentant du rouge au vert). Chaque trajectoire permet ainsi de suivre lévolution en opinion et en incertitude dun individu au cours de la simulation. Les paramètres communs à l ensemble de ces figures sont : µ = 0.5, ´ = 0, ue = 0.1 et N = 200. Le paramètre d incertitude U des modérés de la population augmente de la figure 4-10 à la figure 4-13.
Figure 4-10 : Exemple de convergence centrale. pe = 0.2, U = 0.4. La majorité (96%) des individus modérés nest pas attirée par les extrêmes.
Figure 4-11 : Exemple de convergence vers les deux extrêmes (46% et 53%) pe = 0.25, U = 1.2.
Figure 4-12 : Exemple de convergence vers un seul extrême. pe = 0.1, U = 1.4. La majorité des individus est attirée par lextrême positif.
Dautres simulations pour le même jeu de paramètres que celui de la figure 4-12, conduisent cependant à une convergence centrale (Figure 4-13). Cette dépendance du type dattracteur aux conditions initiales est un signe dinstabilité et impose de conduire un certain nombre de réplications pour chaque jeu de paramètres pour comprendre le comportement du modèle.
Figure 4-13 : Un cas de convergence centrale pour des paramètres identiques à ceux de la figure 4.16. pe=0.1, U=1.4. La majorité reste au centre.
Les changements de couleurs (incertitudes) montrent que dans chacun des trois cas, le regroupement concerne aussi bien les opinions que les incertitudes.
Résultats généraux
Indicateur de type de convergence
Pour exprimer les résultats de lexploration plus aisément, nous utilisons un indicateur de type de convergence, noté y :
EMBED Equation.3 (Eq. 4.11)
où p+ et EMBED Equation.3 sont les proportions dindividus initialement modérés qui deviennent extrémistes (respectivement positifs et négatifs). Ainsi :
- Si aucun des individus modérés ne devient extrémiste (cas de convergence centrale),
alors p+ et EMBED Equation.3 sont nuls et y = 0.
- Si les individus modérés convergent équitablement vers les deux extrêmes,
nous avons alors p+ = 0.5 et EMBED Equation.3 = 0.5, doù y = 0.5.
- Si les individus modérés convergent vers un seul extrême, par exemple le positif,
nous avons p+=1 et EMBED Equation.3 = 0, doù y = 1.
Les valeurs intermédiaires de y correspondant à des situations intermédiaires, la valeur de cet indicateur nous permet aisément de déterminer le type de convergence.
Formes typiques de y
Le comportement du modèle dans l espace des paramètres peut être présenté lisiblement sous la forme des variations de moyennes de y en fonction de U et pe. Nous observons alors une forme typique de y, pour ´=0 (extrémistes initialement équilibrés), et une forme différente pour ´ > 0 (déséquilibre initial entre les extrémistes).
Nous identifions alors quatre régions pour lesquelles les valeurs de y correspondent aux trois régimes dynamiques. Les deux zones blanches et jaunes correspondent ainsi à des convergences centrales, la zone orange à des convergences vers les deux extrêmes et la zone marron vers un seul extrême. Les diagrammes (Figure 4-14) montrent cependant de larges zones pour lesquelles les valeurs de y sont intermédiaires. Les régimes dynamiques purs (y = 0 ; 0.5 ou 1) sont ainsi séparés par des zones où les valeurs intermédiaires de y associées à fort écart-type peuvent être dues :
- soit à une distribution bimodale dattracteurs purs, causée par la stochasticité de la distribution initiale et de la sélection des interactions,
- soit à une distribution unimodale dattracteurs plus complexes ayant des groupes dindividus de tailles différentes.
Lhistogramme des valeurs de y prises sur la ligne horizontale pe = 0.125 supprime toute ambiguïté sur la nature des attracteurs dans ces zones intermédiaires (Figure 4-15). Ainsi, nous observons que les zones intermédiaires pour U faible correspondent à une distribution unimodale de y entre 0 (convergence centrale) et 0.5 (convergence vers deux extrêmes), alors que pour U élevé, elles correspondent à une distribution bimodale de convergences centrales (y=0) et vers un seul extrême (y=1).
Figure 4-14 : Formes typiques de la moyenne et de lécart type de lindicateur y (50 réplications en chaque point du graphe) en fonction de lincertitude des individus modérés (U) et de la proportion globale dextrémistes dans la population (pe) pour ´ = 0 (en haut) et ´ = 0.1 (en bas). Les autres paramètres sont fixés : incertitudes des extrémistes ue = 0.1, intensité des interactions µ = 0.2. Sur le graphe des moyennes de y, les zones jaunes et blanches à gauche correspondent à la convergence centrale, les zones oranges, typiquement au milieu à la convergence vers les deux extrêmes, et la zone marron en bas à droite correspond au simple extrême.
Figure 4-15 : Histogramme des valeurs de lindicateur y pris le long de la ligne pe = 0.125 de la figure 4-14 avec dð = 0. Pour la zone de transition dans les U élevés (U>1) les mêmes paramètres conduisent soit à une convergence centrale soit à une convergence vers un seul extrême. (y proche de 0 ou proche de 1). Au milieu, pour des U moyens (0.5