Td corrigé acutalites - page suite - Free pdf

acutalites - page suite - Free

Plus que jamais l'entreprise doit maîtriser l'information qui circule à son sujet. ...... Elle induit également un comportement collectif assez statique qui est aux ...




part of the document



ACTUALITESAgriculture et Bétail
Alimentaire
Assurance
Automobile
Le Monde 02/02/06 L'auto à pédales a de l'avenir
Désormais, la voiture à pédales est un très ordinaire joujou minimaliste en plastique thermoformé destiné aux tout-petits. Ou une relique des années 1950 ou 1960 que les baby-boomeurs s'arrachent à prix d'or. Les enfants et les adolescents d'aujourd'hui, qui ont adopté depuis longtemps VTT, rollers et trottinettes, écoutent, amusés mais guère concernés, les souvenirs paternels.
Pourtant, la marque néerlandaise Berg Toys ne désespère pas de redonner de l'attrait à ces engins mus à la force des mollets. Fort de ses succès obtenus en Europe du Nord, le leader mondial du kart à pédales (30 000 unités vendues chaque année) vient de lancer plusieurs nouveaux modèles avec pour objectif de séduire les jeunes Français des années 2000.
"Ce sont d'abord les adultes qui succombent au charme de ces engins auxquels ils doivent tant de souvenirs mais, en général, ils n'ont pas grand mal à convaincre leur progéniture", assure Jean-François Mangeard, importateur de produits Berg en France. La marque espère diffuser 600 unités dès cette année et 6 000 à l'horizon 2009.
Conçus sur un châssis tubulaire, pourvus de roues à très gros pneus et de roulements à billes, ces karts à pédales (à partir de 259 euros) disponibles dans les grandes enseignes de jouets sont interdits sur la voie publique mais autorisés sur les pistes cyclables.
UNE RÉPLIQUE DU TYPE AK
Particulièrement sophistiqué, le Reflex (1 399 euros) reçoit des pare-chocs, des amortisseurs arrière spéciaux, des freins à disques, un éclairage et même un ordinateur de bord qui indique la vitesse maximale atteinte, la durée du trajet et la distance parcourue. Ces chers petits pourront tout aussi bien se satisfaire d'un modèle de milieu de gamme (autour de 500 euros) disposant d'un siège réglable qui permet d'accompagner la croissance du pilote jusqu'à son adolescence (et même au-delà...). Du reste, des modèles grande taille utilisables par un adulte existent sur catalogue. Le plus souvent, leurs acheteurs restent discrets sur l'usage qu'ils en feront. Ou assurent que leurs enfants ont grandi très vite.
De son côté, Renault — qui diffuse déjà une gamme de ces petites autos dans son réseau — croit aussi à l'essor de la voiture à pédales. La marque vient tout juste de lancer une réplique de l'antique Type AK, qui remporta en 1906 le premier Grand Prix de l'Automobile Club de France, au Mans.
Produite à 1 600 unités en version classique (200 euros) ou en version Collector (250 euros), cette Renault à pédales se vend "comme des petits pains", dixit le constructeur. Mais les enfants auront sans doute fort à faire pour qu'on les autorise à jouer avec.
Jean-Michel Normand
Banque et Finance
JDN 27/01/06 Les banques en ligne tardent à adopter l'authentification forte
Les établissements bancaires proposant une procédure d'authentification forte sont peu nombreux. La pédagogie envers le client final demeure une priorité. (27/01/2006)
Alors que le montant des fraudes sur les sites de banque en ligne britanniques auraient représenté 14,5 millions de livres (ndlr : près de 22 millions d'euros) au premier semestre 2005, selon l'association britannique des paiements (APACS), les résultats d'un récent audit effectué par la CNIL ont de quoi surprendre.
Ainsi, trois banques en ligne françaises sur dix ne disposeraient pas de mécanismes de protection suffisants. Et quatre d'entre elles ne proposeraient pas de transaction sécurisée (protocole https) lors de l'échange du couple identifiant / mot de passe.

Les établissements bancaires - comme la plupart des sites marchands en ligne -, doivent veiller à mettre en œuvre deux dispositifs complémentaires : d'une part la sécurisation de leurs infrastructures réseaux et de leur serveur Web, d'autre part les accès aux comptes bancaires des utilisateurs.
Même si, prévient Nicolas Woirhaye, en charge de la lutte contre la cybercriminalité au sein du cabinet Lexsi, "ce sont avant tout les sites de banque en ligne qui font l'objet d'attaques, plus que le système d'information de la banque en elle-même".
'La sécurisation d'un SI bancaire nécessite une architecture en strates qui cloisonne et crée une défense en profondeur", signale de son côté Hervé Schauer, à la tête du cabinet HSC, spécialisé en sécurité informatique.
"Les logiciels utilisés sont en général Apache ou parfois Zeus en frontal comme serveur Web, ou relais HTTP en reverse-proxy sur des plates-formes Linux ou Solaris, alors que la supervision idéale sera faite sur un réseau distinct dédié à cette tâche, et cloisonné, afin de limiter les risques d'intrusions", ajoute Hervé Schauer.
La seule mise en place d'infrastructures sécurisées ne suffit pas
Mais la seule mise en place d'infrastructures sécurisées ne suffit pas, car encore faut-il s'assurer de leur intégrité. "Des audits comprenant - entre autres - des tests de montée en charge sont régulièrement effectués. Des outils de détection des fraudes et des techniques de scoring sont également utilisées", constate Laurent Treillard, consultant en sécurité des systèmes d'information chez Ageris Consulting, bureau d'études spécialisé.
"Nous faisons réaliser par une société externe un audit des applications et des services destinés au client et faisons procéder à une vérification de l'intégrité de l'ensemble de nos systèmes de sécurité. Par ailleurs, des tests d'intrusion sont menés par une équipe interne d'experts, épaulée par des correspondants sécurité présents au niveau régional", annonce Jean-Luc Jacob, responsable de la direction des nouveaux médias du Crédit Mutuel Nord Europe.
Le renforcement de la sécurisation des sites bancaires en ligne se fait cependant attendre (lire lHYPERLINK "http://solutions.journaldunet.com/0503/050317_phishing.shtml"'article du 17/03/2005). A ce jour, le Crédit Mutuel reste en effet l'un des rares acteurs bancaires à avoir instauré un système d'authentification forte.
"L'équipement systématique des clients en cartes d'identification renforcées, avec génération de codes aléatoires pour les particuliers, vient s'ajouter aux modalités d'identification statiques du couple identifiant / mot de passe", poursuit Jean-Luc Jacob. S'assurer que l'utilisateur qui accède à des comptes bancaires via Internet en est bien le titulaire demeure une préoccupation de tous les instants pour ces établissements.
"Les acteurs bancaires et les sites de commerce en ligne doivent se regrouper sur la problématique et mettre en place un système commun d'authentification forte le plus rapidement possible", alerte Nicolas Woirhaye (Lexsi).
Si la sécurisation des sites de banques en ligne est loin d'être homogène, un indispensable devoir de pédagogie doit être effectué en direction des clients finaux et des utilisateurs des services bancaires en ligne.

"Nous nous efforçons autant que possible de sensibiliser nos équipes de vente en interne aux phénomène de phishing, car ce sont elles qui vont être les premiers relais auprès de nos clients et pourront répondre à leurs craintes ou interrogations vis-à-vis de ces nouvelles menaces", conclut Jean-Luc Jacob
JDN 25/01/06 Entrée en Bourse : mode d'emploi
Etablir un prospectus, obtenir l'aval de l'AMF, rencontrer les investisseurs et surtout choisir le bon moment… Les étapes clés d'une opération stratégique qui s'étale sur six mois. (25/01/2006)
L'introduction en Bourse a pour vocation d'être un formidable accélérateur pour le développement d'une entreprise. Toutefois, pour en retirer les bénéfices, il s'agit de bien la préparer. Si le choix du marché - réglementé comme Eurolist, non réglementé comme Alternext, ou libre - impliquent des approches qui peuvent être différentes, il est quand même possible d'établir une feuille de route générale. Les explications et conseils de Didier Demeestère, directeur général de Gilbert Dupont, société de Bourse ayant réalisé 27 introductions depuis 1998.
N'importe quelle société ne peut pas s'introduire en Bourse sans un projet précis et une bonne croissance. "Il faut d'abord vérifier que l'entreprise est susceptible d'intéresser des investisseurs financiers, note Didier Demeestère, c'est-à-dire qu'elle ait un véritable projet de développement, organique ou par acquisition. D'après moi, un investisseur ne doit pas venir se substituer à un actionnaire qui aurait comme principal objectif de sortir du capital de l'entreprise." Il est également conseillé d'avoir un certain nombre d'années d'existence, ne serait-ce que pour pouvoir présenter les bilans de plusieurs exercices comptables à l'AMF, l'Autorité des marchés financiers. Si une croissance positive est obligatoire, avoir atteint la rentabilité est fortement conseillé aujourd'hui, surtout depuis la bulle Internet. Enfin, il est important de choisir la bonne fenêtre de tir. L'entreprise doit surveiller le marché (comment se comporte le Cac 40 ?) et les acteurs qui lui sont comparables : les sociétés présentes sur le même secteur et de taille analogue qui viennent de s'introduire en Bourse ou qui y ont une certaine ancienneté. Ont-ils réussi ou échoué ? A combien se monte leur valorisation ? Les échanges sur le marché sont-ils dynamiques ? Autant de questions à se poser avant de se lancer.
Le prospectus est un dossier obligatoire qui sera soumis à l'AMF, dont la mission est de protéger l'épargne. Il comprend entre autre : - une présentation juridique et commerciale de la société - les rapports financiers des deux ou trois exercices précédents - les tenants et aboutissants du projet de l'entreprise - sa stratégie "La préparation du prospectus nécessite environ trois mois", précise Didier Demeestère. Une bonne tenue des comptes et des informations concernant l'entreprise permet de gagner du temps. En outre, la constitution de ce dossier mobilise plusieurs acteurs, internes ou externes : juristes et comptables, agence de communication financière, mais aussi banque introductrice ou société financière. Cette dernière est l'intermédiaire incontournable entre l'entreprise et les autorités de régulation.

Pratique
HYPERLINK "http://management.journaldunet.com/0505/050582alternext.shtml"Alternext, mode d'emploi
HYPERLINK "http://management.journaldunet.com/0510/0510106communication-financiere.shtml"Réussir sa communication financière

Vient ensuite la phase de "marketing", ou roadshow. L'entreprise est amenée à rencontrer des investisseurs par l'intermédiaire d'un PSI (prestataire de service d'investissement), autrement dit une société de Bourse. Aujourd'hui, on compte une soixantaine de sociétés de ce type agréées pour Euronext, avec chacune ses spécificités. Les particuliers ne représentent qu'une part minime des investisseurs. Ces premiers rendez-vous (one to one, petits déjeuners...) sont suivis d'une présentation de l'entreprise à la communauté financière et aux autres sociétés de Bourse. Ensuite a lieu le placement, c'est-à-dire la mise à disposition des actions de l'entreprise. Cette phase dure généralement dix jours. "La valorisation de l'entreprise est fixée à partir d'une analyse financière qui détermine un prix d'équilibre auquel on soustrait une décote de 15 à 20 % pour intéresser les investisseurs, détaille Didier Demeestères. La fourchette, validée par l'AMF, oscille entre plus ou moins 7,5 % du prix après décote. Et ce sont les ordres des clients, enregistrés par le PSI qui déterminent le prix final de l'introduction." Elle est alors proposée à l'entreprise pour validation. Le premier jour de cotation capte toutes les attentions car c'est un indicateur privilégié pour savoir si l'opération est une réussite ou pas. Le second jour valide la tendance.

S'introduire en Bourse n'est pas une fin mais un début, car l'entreprise est tenue d'assurer un suivi et de répondre à des rendez-vous obligatoires : publication trimestrielle des comptes pour Eurolist, uniquement semestrielle et annuelle (comptes certifiés) pour Alternext. Toute opération affectant les titres de l'entreprise doit également être signalée. "L'introduction en Bourse est le plus intéressant levier pour financer sa croissance, c'est un choix impliquant et très médiatisé", prévient Didier Demeestère. Plus que jamais l'entreprise doit maîtriser l'information qui circule à son sujet. "La Bourse agit comme un aiguillon qui, par une régulière remise en cause, exige des efforts internes et force à l'excellence." Le PSI est également présent dans le suivi post-introduction. "Il s'agit d'organiser des rencontres avec les investisseurs, de réaliser un suivi en analyse financière, et d'assurer la liquidité du titre en permanence", ajoute-t-il. A noter : le coût d'une opération en Bourse représente généralement entre 4 et 8 % des capitaux levés par l'entreprise.
Conception et Architecture
La tribune 30/01/06 Le bâtiment conservera sa TVA réduite jusqu'en 2010
· La Pologne a levé son opposition au compromis autrichien · La France continuera à appliquer un taux de 5,5 % dans le bâtiment · L'ensemble des dérogations sera réexaminé en 2007
L'Union européenne et la Pologne sont parvenues, hier soir à Vienne, à un accord sur la TVA à taux réduit. Varsovie a finalement accepté de prolonger jusqu'à la fin de 2010 les dérogations permettant depuis 1999 à neuf pays de l'Union, dont la France, d'appliquer des taux réduits de TVA à une série de services « à forte intensité de main-d'oeuvre ». Les professionnels du bâtiment, notamment, pourront continuer à appliquer un taux de TVA à 5,5 % aux travaux de rénovation pendant cinq ans au moins. En contrepartie, la Pologne a obtenu la prolongation de sa TVA réduite sur les constructions de logements neufs, la Commission acceptant de les inclure dans les services sociaux bénéficiant automatiquement de taux minorés. L'exécutif communautaire s'est en outre engagé, comme Varsovie le demandait, à réexaminer en 2007 l'ensemble des dérogations dont bénéficient les nouveaux pays de l'Union. A cette occasion, les Français repartiront à l'assaut sur la fiscalité applicable à la restauration, les experts communautaires ayant été chargés de présenter au milieu de l'année prochaine une étude sur l'impact des taux réduits de TVA.
Jdn 10/02/06 La maison économe


 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_01.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/4.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_02.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/7.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_03.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/3.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_04.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/index.shtml" \l "#"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_05.gif" \* MERGEFORMATINET 

 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/7.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_06.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_07.gif" \* MERGEFORMATINET 

 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 




 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_08.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 



 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_09.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/9.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_10.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_11.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/4.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_12.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_13.gif" \* MERGEFORMATINET 



 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 





 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_14.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/3.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_15.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/2.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_16.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 





 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_17.gif" \* MERGEFORMATINET 


 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/5.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_18.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_19.gif" \* MERGEFORMATINET 






 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 


 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_20.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_21.gif" \* MERGEFORMATINET 






 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 


 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_22.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/8.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_23.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/2.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_24.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_25.gif" \* MERGEFORMATINET 



 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 






 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_26.gif" \* MERGEFORMATINET 
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/2.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_27.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_28.gif" \* MERGEFORMATINET 






 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 







 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_29.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 





 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/9.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_30.gif" \* MERGEFORMATINET 


 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/8.shtml"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_31.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_32.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_33.gif" \* MERGEFORMATINET 




 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 


 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/index.shtml" \l "#"  INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonOFF_34.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/maisonON_35.gif" \* MERGEFORMATINET 



 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 

 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/images/spacer.gif" \* MERGEFORMATINET 




 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/4.shtml" Panneaux solaires photovoltaïques
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/5.shtml" Mini-éolienne
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/4.shtml" Equipement électrique
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/9.shtml" Citerne de récupération d'eau de pluie
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/7.shtml" Chauffe-eau solaire
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/8.shtml" Plancher chauffant
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/7.shtml" Panneaux solaires thermiques
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/8.shtml" Sonde géothermique
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/2.shtml" Véranda
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/2.shtml" Mur végétal
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/3.shtml" Triple vitrage
 HYPERLINK "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/3.shtml" Isolation intérieure + extérieure
La construction
Avant d'envisager toute production d'énergie alternative, l'essentiel est de bien construire son habitat dès le départ. Tenir compte de l'orientation et de l'ensoleillement peut ainsi suffire à économiser 30% d'énergie.

 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/pertes-energie.jpg" \* MERGEFORMATINET 
Sujet illustré : Les surfaces vitrées peuvent constituer une déperdition de chaleur importante. D'où l'idée de les répartir astucieusement : 40 à 60% de surface vitrée sur la façade sud, 10 à 15% au nord, et moins de 20% sur les façades est et ouest.

C'est le principe de l'architecture "bioclimatique". L'hiver, on emmagasine la chaleur du soleil pour la restituer la nuit, et l'été, on limite le rayonnement pour maintenir la maison au frais. La forme de la maison est également primordiale : plus la maison est compacte, moins elle va perdre d'energie, car sa surface exposée au vent sera limitée. A 70 km/h, le vent double les déperditions énergétiques d'une maison.
Le plan intérieur de la maison doit tenir compte des besoins en chauffage de chaque pièce : le séjour et la salle de bains seront par exemple dans la partie sud du batiment, les chambres seront dans la partie nord. Les "zones tampon" (garage, cellier) constituent d'une part un isolant supplémentaire, et régulent la température. Même en pleine canicule, vos bouteilles restent au frais à la cave !
La véranda est un autre excellent moyen de récupérer de la chaleur, mais attention à la surchauffe l'été. Prévoyez un toît ouvrant pour évacuer l'air chaud et un mur en brique entre la maison et la baie vitrée.

Une bonne isolation
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/micronal.jpg" \* MERGEFORMATINET  Incorporé aux peintures et au plâtre, les micro-billes de cire régulent la température. Quand il fait chaud, la cire absorbe la chaleur et la stocke. Quand la température redescend, elle la restitue.
PRIVATE "TYPE=PICT;ALT="Sujet illustré
Une bonne isolation est essentielle, car elle permet de diminuer la consommation d'énergie tout en gardant un bon confort thermique. Il existe pricipalement deux types d'isolation : intérieure (l'isolant est posé à l'intérieur des pièces) ou "monomur" (un mur alvéolé sert lui-même d'isolant).
L'isolation extérieure, pourtant très efficace, reste peu pratiquée car réservée à des techniciens spécialisés. Côté matériaux, pas besoin de se casser (trop) la tête, car le meilleur isolant est… l'air, gratuit et omniprésent.
Le principe des isolants est donc d'emprisonner l'air soit dans des fibres (laine de verre, chanvre…), soit dans des cavités poreuses (polystyrène, briques…). Mais ces matériaux présentent le désavantage de ne pas être recyclables et coûteux à fabriquer.
Nanomatériaux
Du coup, de nouveaux nanomatériaux font leur apparition. Les aérogels de silice, par exemple, sont un must. Ces nanomatériaux ont une structure ultraporeuse, comme une éponge remplie de minuscules trous. Leur efficacité énergétique est presque 100 fois supérieure à celle des matériaux traditionnels.
Encore mieux : les matériaux "à changement de phase". Des micro-billes de paraffine absorbent l'excès de chaleur en fondant et la restituent la nuit ou quand il fait froid. Un système particulièrement adapté pour les parois peu épaisses. Evidemment, l'efficacité a un prix : 45 euros le m² .
Reste les fenêtres. Les fabricants rivalisent d'imagination pour inventer de nouveaux vitrages : traitement de surface pour réduire les transferts de chaleur vers l'extérieur, coloration automatique en fonction de l'ensoleillement. Le verre a aujourd'hui des performances thermiques équivalentes à celles d'une paroi bien isolée. Demain, il deviendra peut-être même source d'énergie en se transformant en panneau photovoltaïque.
L'éclairage

Il est préférable d'intégrer les panneaux solaires à la toiture plutôt que de les poser sur cette dernière. C'est plus cher, mais le résultat esthétique est bien meilleur.
Installation du capteur Clipsol TGD - © Clipsol
PRIVATE "TYPE=PICT;ALT="Sujet illustré
Nul besoin d'habiter sur la Côte d'Azur pour profiter de l'énergie solaire. Avec un ensoleillement de 1497 h (moyenne à Metz), une surface de moins de 10m² de panneaux photovoltaïques assure 1800 kWh/an. Hors chauffage et eau chaude, 70% de vos besoins sont ainsi assurés.
Outre le facteur d'ensoleillement, la disposition des panneaux solaires est très importante. Les performances varient du simple au double en fonction de l'inclinaison. Pour obtenir un résultat optimal, il faut les placer perpendiculairement au soleil. L'angle dépend donc de la latitude, de la saison, et de l'utilisation prévue : si par exemple on veut plus d'électricité en hiver, il faut un angle plus grand que pour une utilisation estivale. Le must, étant, évidemment, des panneaux orientables.
Comment ça marche ?
Les panneaux photovoltaïques transforment l'énergie solaire (les photons) en courant électrique (les électrons). La puissance issue du capteur est proportionnelle à l'intensité lumineuse. Le courant produit doit ensuite être transformé par un onduleur en courant alternatif afin d'alimenter les appareils électriques. L'onduleur sert aussi à supprimer les variations d'intensité dues aux intermittences du soleil. Mais pour le stockage, il faut repasser en courant continu. C'est le rôle du redresseur. Puis l'électricité est stockée dans des accumulateurs, qui assurent jusqu'à une semaine d'autonomie.
Des améliorations constantes
Le prix de revient du photovoltaïque a considérablement baissé (100 euros en 1975, 2 euros aujourd'hui). Et ce grâce au silicium, un matériau abondant et non toxique qui a conquis 93% du marché des capteurs solaires. L'avenir pourrait pourtant se situer ailleurs : les chercheurs planchent déjà sur des cellules photovoltaïque à base de cuivre et d'indium, de moins de 2 micromètres d'épaisseur ! Encore mieux, les nanomatériaux, ultra-minces et flexibles, pourraient aussi à terme remplacer les bonnes vieilles plaques solaires.
Les batteries restent le point faible de telles installations. Au plomb, elles sont très polluantes et difficiles à recycler. Celles au lithium ont une durée de vie limitée (de cinq à huit ans), et leur remplacement coûte cher.

L'électricité éolienne
La France est le deuxième meilleur gisement éolien après la Grance-Bretagne. Les zones particulièrement favorables sont la région méditerranéenne et la Bretagne.
PRIVATE "TYPE=PICT;ALT="Sujet illustré
Pourquoi ne pas équiper votre maison d'une micro-turbine éolienne ? Certes, mieux vaut habiter une région suffisamment ventée pour avoir de l'électricité en quantité intéressante. Mais les nouvelles éoliennes sont efficaces dès un vent de 3 m/s et nécessitent peu d'entretien. Il faut cependant une visite d'entretien annuelle pour veiller à la lubrification du rotor, au resserrage des boulons et écrous, et procéder à des réglages divers. La durée de vie d'une éolienne est d'environ vingt ans. La production d'une éolienne dépend de la vitesse du vent, du rendement de son rotor et de sa surface. Avec des pales de 7 m, la puissance est multipliée par 10 par rapport à des pales de 4 m. Et si la vitesse du vent augmente de 20 km/h, la puissance disponible est multipliée par huit ! L'énergie de rotation du rotor est transmise à un alternateur (générateur de courant alternatif), via un multiplicateur. Ce dernier peut soit accélérer la rotation, soit la freiner en cas de vent violent. L'électricité produite est ainsi utilisable immédiatement. Un kit complet d'installation pour une turbine de 3kW vous coûtera environ 7 000 euros. Une telle éolienne produit entre 3 000 et 3 800 kwh par an, selon le vent. Pour ces deux modes de production, il est possible de vendre son électricité à EDF, à condition de raccorder son installation au réseau (voir HYPERLINK "http://www.edfdistribution.fr/60040i/LedistributeurEDF/Pourvous/Producteursdelectricite/Raccordement.html"le site d'EDF pour les conditions). Après avoir passé un contrat, vous pourrez revendre le kWh éolien 8,38 centimes d' euros (contre 5,25 centimes d'euros pour le kWh photovoltaïque). Attention : en France, la hauteur maximum du mat autorisée est de 12 m. Au-delà, vous devez demander un permis de construire auprès de votre mairie. En outre, elle sera aussi soumise à l'avis de vos voisins... Une disposition qui freine l'implantation des éoliennes, car bien sûr il y a d'avantage de vent en altitude.
3. Le chauffage

Nous avons vu que les panneaux solaires peuvent servir à la production d'électricité, mais on peut encore optimiser le rendement en convertissant directement l'énergie du soleil en chaleur pour sa maison.
 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/chauffage-solaire.jpg" \* MERGEFORMATINET 

La maison solaire de Clipsol équipée d'un Plancher Solaire Direct (PSD)

Principe du chauffage solaire 1. Capteur solaire thermique - 2. Ballon d'eau chaude - 3. Collecteur de distribution - 4. Plancher chauffant - 5. Eau chaude sanitaire - 6. Piscine chauffée

PRIVATE "TYPE=PICT;ALT="Sujet illustré
Evidemment, le problème est toujours celui du stockage. Le principe le plus simple est donc de garder la chaleur dans un réservoir d'eau par le biais d'un échangeur de chaleur. L'eau chaude peut ensuite être utilisée soit pour le chauffage des pièces via un circuit relié à des radiateurs, ou pour la douche, le bain, les machines à laver… L'alimentation en eau chaude d'un lave-linge réduit ainsi de 90% sa consommation d'énergie (il faut savoir que l'essentiel de celle-ci est utilisée pour chauffer l'eau). Deux inconvénients toutefois : l'encombrement du réservoir et le prix. Un chauffe-eau solaire coûte entre cinq et dix fois le prix d'un chauffe-eau classique, mais vous bénéficierez d'un crédit d'impôt de 40%. Signalons enfin le must du chauffage solaire : le plancher chauffant. L'eau chauffée par les capteurs thermiques circule directement dans une dalle de béton. Le béton stocke la chaleur, qui sera diffusée au cours de la nuit. Problème : l'été, on risque la surchauffe ! Il est donc conseillé d'avoir quand même un ballon d'eau pour stocker la chaleur supplémentaire, et un circuit sous haute pression pour éviter l'ébullition de l'eau dans les canalisations. Evidemment, les planchers chauffants ne peuvent être installés qu'à la construction de la maison, alors que vous pouvez équiper une maison déjà existante de radiateurs solaires.
La géothermie

Ce type de chauffage repose sur l'inertie thermique du sol. Car à des profondeurs de 2 à 4 m, la température est stable toute l'année (autour de 10°C). La chaleur est prélevée par l'intermédiaire d'un capteur extérieur enterré à 60 cm environ de profondeur ou d'une sonde géothermique verticale sous le sol du jardin.

 INCLUDEPICTURE "http://www.linternaute.com/science/environnement/dossiers/06/0601-maison-econome/geothermie.jpg" \* MERGEFORMATINET 

PRIVATE "TYPE=PICT;ALT="Sujet illustré
Le mode de captage dépend de l'espace dont vous disposez. Les capteurs horizontaux requièrent une surface environ 1,5 fois supérieure à celle que vous voulez chauffer. On peut ainsi prélever 15 watts par m² de réseau enterré. Au-dessous de 10°C, il faudra toutefois compléter avec du chauffage classique.

Il existe plusieurs systèmes. Avec un circuit "sol-sol", le transfert de chaleur est assuré par un fluide frigorigène fonctionnant en circuit fermé : le réseau de capteurs achemine directement le fluide dans le plancher chauffant. Dans la technologie "eau-eau", la chaleur est transmise via un circuit de distribution hydraulique (eau additionnée d'antigel dans les capteurs extérieurs, eau dans le plancher chauffant). Il faut alors un condenseur et un évaporateur pour restituer l'énergie et chauffer l'eau. Enfin, le système "sol-eau" combine les deux précédents, puisque l'eau est utilisée seulement dans le circuit intérieur, l'évaporation étant réalisée directement dans le capteur extérieur L'avantage des systèmes utilisant de l'eau est d'emmagasiner la chaleur sur de plus longues durées et de permettre d'utiliser des radiateurs déjà existants. Par contre, la surface de captage doit être plus importante. Aujourd'hui, il existe des pompes à chaleur dites réversibles qui permettent, outre le chauffage en hiver, de rafraîchir les pièces en été. Un vrai plus quand on connaît les ravages de la climatisation sur l'environnement. L'installation complète (capteurs, pompe, et plancher chauffant) vous reviendra entre 90 et 120 euros par m². Mais vous pouvez bénéficier d'un crédit d'impôt de 40% sur toutes les fournitures. Malgré tout la France reste à la traîne : seules 10% des habitations neuves sont équipées de pompes à chaleur, contre 35% en Suisse et 90% en Suède.
4. L'eau

La cuve en béton permet de stocker l'eau entre 12 et 15°C, à l'abri de la lumière pour empêcher la prolifération de bactéries.
PRIVATE "TYPE=PICT;ALT="Sujet illustré
Chaque jour, nous consommons 150 à 200 litres d'eau. A 2,8 euros par m³, cela nous donne une addition de 67 euros par mois pour une famille de 4 personnes. (voir HYPERLINK "http://www.linternaute.com/acheter/eau/tableau.shtml"notre tableau sur la consommation) Il existe d'abord des mesures simples à prendre pour faire des économies : un robinet qui goutte par exemple peut vous faire perdre entre 2 000 et 8 000 litres d'eau par an. Le choix des appareils ménagers est capital, car les consommations varient du simple au double selon leur classification. Mais on peut aller beaucoup plus loin, et presque se passer du réseau urbain, en s'équipant d'un réservoir d'eau de pluie. Le principe est simple : la pluie qui tombe sur le toit de la maison est canalisée dans des gouttières reliées à une cuve. Une pompe électrique achemine l'eau de la cuve vers la maison où elle alimente les sanitaires et appareils ménagers (lave-linge, douche, WC…). Comme l'eau de pluie n'est pas calcaire, elle évitera en plus l'entartrage et vous permet d'économiser de la lessive (on peut utiliser 40% de détergents en moins avec de l'eau douce). Mais attention : l'eau de pluie reste impropre à la consommation : vous ne pourrez pas la boire, à moins d'installer un filtre à osmose. Quel équipement choisir ? La moyenne des précipitations en France est de 600 mm par an environ. Pour une maison avec un toit de 150 m2, ayant une pente de 15%, on a donc : surface de toit 150 m² x cœfficient de pente 0,8 x hauteur des précipitations 0,6 m = 72 m³ d'eau, soit 197 litres par jour. De quoi couvrir, théoriquement, tous nos besoins quotidiens. Selon vos moyens et vos besoins, vous trouverez différents types de cuves (béton, plastique…) et de différentes tailles (300 à 100 000 litres). Le béton présente l'avantage de neutraliser l'acidité naturelle de l'eau, mais il est plus lourd à installer et plus coûteux. Les citernes extérieures doivent être vidées en hiver en raison du gel, mais les citernes d'intérieur ou enterrées peuvent être utilisés toute l'année Quelques vérifications s'imposent avant d'investir dans une citerne : le niveau de la nappe phréatique ne doit pas être trop haut si vous l'enterrez. Enfin, les tuiles en matériaux naturels (ardoise, zinc, tuiles émaillées…) sont préférables, car cela influe sur la qualité de l'eau. Il existe même des tuiles amiantées : dans ce cas, il est évidemment déconseillé d'utiliser l'eau de pluie. Lorsque la cuve est pleine, l'eau est redirigée vers le réseau d'eaux pluviales via le trop plein.
La récupération d'eau

Principe de la récupération d'eau de pluie L'eau qui tombe des gouttières est déversée dans le collecteur. Un premier filtre empêche les feuilles, brindilles, ou insectes de tomber dans la cuve. Plusieurs sortes de filtres (bactérien, osmoseur, UV) peuvent être installés pour éviter le développement de micro-organismes. Le débordement régulier de la citerne est important afin d'éviter une "putréfaction" de l'eau : la couche flottante pourrait obturer la surface de l'eau et empêcher ainsi l'arrivée d'oxygène dans l'eau. Une pompe alimente un réseau secondaire relié à vos installations sanitaires. Quand la citerne est vide, un module de gestion permet de basculer facilement entre la citerne et le réseau de ville.

»  HYPERLINK "http://www.minergie.ch/fr/index.php" \t "_blank" Minergie : le label suisse pour les maisons passives
»  HYPERLINK "http://www.bedzed.org.uk/" \t "_blank" Bedzed : un écolotissement en Angleterre
»  HYPERLINK "http://www.ciele.org/" \t "_blank" Le Ciele (Centre d'information sur l'énergie et l'environnement)
»  HYPERLINK "http://www.cstb.fr/default.asp" \t "_blank" Le CSTB (Centre Scientifique et Technique du Bâtiment)
» Les guides pratiques de  HYPERLINK "http://www2.ademe.fr/servlet/getDoc?cid=96&m=3&id=24926&ref=12375" \t "_blank" l'Ademe


HYPERLINK "http://www.lesechos.fr/journal20060202/lec1_international/4378353.htm"Les taux réduits de TVA actuellement en vigueur sont prolongés de cinq ans
Energie
Exportation
JDN 200106 Exportations : l'Etat appelé à revoir toute sa stratégie
· Un rapport du Conseil d'analyse économique recommande de s'appuyer sur les PME plutôt que sur les champions nationaux · Bond des exportations chinoises de vêtements vers l'Europe en 2005
Dans un rapport iconoclaste qu'il s'apprête à remettre à Matignon sur « L'évolution récente du commerce extérieur français », le Conseil d'analyse économique recommande, pour soutenir nos exportations, une politique de soutien au développement des PME. « Nos exportations sont dans une situation absolument dramatique, mais les perte s de parts de marché ne s'expliquent pas par les déterminants habituels », explique Patrick Artus, co-auteur du rapport. Selon lui, « la France se caractérise par une absence totale de réactivité de l'appareil productif à la demande ». Selon le rapport, « beaucoup plus que les politiques habituelles d'aide à l'exportation, il est nécessaire de rendre les PME plus productives, plus grandes et plus flexibles, donc plus réactives ». Les entreprises moyennes françaises se développent en effet trop lentement pour pouvoir profiter à plein de la croissance du commerce mondial. La Chine, elle, après le démantèlement des derniers quotas textiles, a vu ses exportations de vêtements vers l'Union européenne bondir de 50 % l'an dernier.
Fabrication et Matériaux
Finance Gestion
JDN 01/12/05 Les 40 pays de l'offshore les plus attractifs
L'étude du cabinet AT Kearney oppose 40 pays émergents et développés sur des critères liés à la structure financière, l'environnement économique et la qualité de la main d'oeuvre. L'Amérique du Nord y figure en bonne place.  (01/12/2005)

L'Inde, la Chine et les autres pays d'Asie du Sud demeurent des pôles majeurs de l'offshore, mais laissent désormais la place dans le top 10 aux pays développés tels le Canada et les Etats-Unis. C'est le premier bilan de l'étude A.T. Kearney qui s'attarde sur les conditions économiques et financières des principaux pays du globe pour le marché des services informatiques.
Afin de mesurer l'intérêt d'une stratégie d'externalisation, le cabinet d'étude classe les pays suivant trois critères : la structure financière , l'environnement économique, la disponibilité et la qualification de la main d'oeuvre. L'index se base sur les zones économiques d'un pays jugées les plus propices aux investissements, par exemple la ville de San Antonio aux Etats-Unis.

Cette année, l'Inde prend la tête de ce classement une nouvelle fois encore. Même si l'écart avec la Chine tend à se resserer, l'Inde conserve son attractivité avec une forte marge malgré une inflation salariale. Grâce à l'amélioration de la qualité de son infrastructure et une disponiblité accrue de personnes compétentes, la Chine maintient sa seconde place et améliore son attractivité. Les autres pays faisant partie des ces leaders sont concentrés sur la zone sud de l'Asie : la Malaisie, Singapour, les Philippines et la Thaïlande.
Ce classement, nommé Global Services Location Index, analyse 40 pays. Le cumul des critères (coût, environnement et qualité de la main d'oeuvre) donnent l'index global, correspondant à l'attractivité d'un pays, critère de choix pour l'offshore.

Ces données, servant au calcul complexe de la décision de localisation, montrent aussi l'attractivité des pays d'Amérique du Nord. Bien que le Canada et surtout les Etats-Unis aient des coûts financiers élevés, dus majoritairement aux salaires, l'environnement économique est parmi les meilleurs et la force de travail est la plus qualifiée, tous pays confondus.
La France (zone Marseille) est classée seconde pour la qualification de la population
La France n'est pas en reste, même si elle ne figure qu'à la 35ème place de ce classement (sur 40). La zone étudiée -Marseille en l'occurence- est classée seconde mondialement en terme de qualification de la population, là où les Etats-Unis sont premiers et l'Inde troisième.
Dès lors, cette analyse démontre une réalité toujours présente : la main d'oeuvre des pays développés est trop chère malgré une qualité indiscutable. Or, à l'heure des économies d'échelles, l'Inde ne peut que réussir sur les services. Avec une population de plus en plus expérimentée et des coûts toujours aussi bas, le phénomène d'externalisation des services n'est pas prêt de s'arrêter.
Christophe COMMEAU, JDN Solutions
Les échos 30/12/05  INCLUDEPICTURE "http://www.lesechos.fr/images/carre_ac1.gif" \* MERGEFORMATINET  Introductions en Bourse : le millésime 2005 restera dans les annales
Soixante sociétés ont fait leurs premiers pas à la Bourse de Paris cette année, dont l'emblématique EDF. Fait remarquable, l'ensemble des secteurs a profité de ce boom des introductions. Les valeurs ont cependant connu des performances relativement contrastées.
Banquiers d'affaires et investisseurs ont pu sabrer le champagne : en matière d'introductions en Bourse, le millésime 2005 a été particulièrement faste. Euronext enregistre 60 entrées à la cote à Paris (y compris sur le marché libre et Alternext), pour 13,6 milliards d'euros de capitaux levés. Mieux encore, la France arrive au troisième rang mondial, devançant le Royaume-Uni, selon une étude d'Ernst & Young et de Thomson Financial, sur des données à fin novembre. Plus globalement, 2005 aura été excellente pour l'ensemble du Vieux Continent. Le volume généré par les introductions en Bourse a bondi de 64 %, à 66,8 milliards de dollars, sur la zone Europe-Afrique-Moyen-Orient, largement devant les Etats-Unis (37 milliards de dollars) d'après le bilan préliminaire de Dealogic. Une conjonction de facteurs explique ce bilan particulièrement flatteur. Tout d'abord, une nouvelle vague de privatisations dans l'Hexagone avec les emblématiques EDF et GDF. Elles ont permis de lever 16,3 milliards de dollars (*), un record depuis 2000. Ensuite, l'appétit retrouvé des fonds d'investissement pour la Bourse. La très bonne tenue des indices européens - le CAC 40, par exemple, a avancé de 25 % depuis le début de l'année - et l'abondance des liquidités ont favorisé les sorties de fonds. Enfin, l'engouement des investisseurs et notamment des particuliers pour la Bourse, à l'image de Sanef, de GDF et d'EDF qui a séduit près de 5 millions de petits porteurs. « Plusieurs opérations réalisées récemment font ressortir des taux de sur-souscription élevés », indique Thierry Olive, responsable du marché primaire chez BNP Paribas, dans une note sur ce thème. Fait remarquable, l'ensemble des secteurs a profité du boom des introductions. Si les services aux collectivités ont raflé la palme, représentant 30 % des volumes levés en Europe, les valeurs technologiques et télécoms n'ont pas été en reste. Selon une étude de BNP Paribas, les introductions dans ces secteurs ont représenté près de 1/10 des montants, laissant augurer, selon les professionnels, une année 2006 riche pour ce segment.
Abondance du « papier »
« On a vu revenir des valeurs de croissance surtout dans la deuxième partie de l'année avec une forte demande des investisseurs pour celles-ci », commente Vincent Tricon, directeur associé « equity capital market » chez SGCIB. Mais les performances, elles, se sont avérées relativement contrastées. D'après le document de BNP Paribas, à mi-décembre, analysant environ 80 introductions de plus de 50 millions d'euros, depuis le début de l'année, en Europe, plus d'une quinzaine ont vu leur cours baisser ou rester stable au lendemain de leur introduction. Cela a été le cas d'Eutelsat, d'EDF, de NextRadio TV ou encore de SAFT, en France. De même, un peu plus d'un quart des opérations en Europe ont été réalisées dans le bas de la fourchette de prix initialement proposée, voire dans une fourchette revue à la baisse, à l'exemple d'Eutelsat, qui a même reporté son introduction. « Un certain nombre de vendeurs ont voulu maximiser le prix de cession et plusieurs opérations ont pâti de conditions de marché relativement difficiles, notamment cet automne », précise Vincent Tricon. Quelques écueils peuvent être aussi expliqués par une mise en compétition des banques sur les niveaux de valorisation proposés lors de l'introduction, poussant les prix à la hausse. Enfin, le revers de la médaille de cet excellent millésime en termes de volume a été l'abondance du « papier », en particulier depuis la fin de l'été. Entre octobre et décembre, les introductions ont permis de lever 30,2 milliards de dollars, soit le plus fort volume trimestriel depuis fin 1999 (*). Du coup, les investisseurs ont pu se montrer d'autant plus sélectifs. Pour 2006, même si la vague de privatisations s'est tarie, les professionnels se montrent globalement confiants, à l'exemple de Vincent Tricon. « On attend une foule d'opérations autour de 100 millions d'euros, comme SES, en janvier, et quelques grosses introductions telles que Legrand ou ADP. »MARINA ALCARAZ
JDN 25/01/06 solutions de reporting
Les solutions de Business Intelligence sont construites autour de trois modules distincts et complémentaires : reporting, analyse et extraction de données. Première partie consacrée aux principales solutions de reporting du marché.
Typologies de reporting et normes supportées
Toutes les solutions sont dotées de fonctionnalités de reporting financier. Toutes gèrent les normes de publication financière SAP B/W. Il n'en va pas de même pour XBRL (Extensible Business Reporting Language), langage facilitant la comparaison des états financiers de l'entreprise. L'édition native de reportings au format XML est possible pour la majorité des solutionsEditeur/SolutionReportingsSAP B/WXBRLAutres normesFormats de publicationActuate / Actuate Enterprise Reporting Application PlatformFinancier, production... INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP...)DHTML, PDF, RTF, XLS, CSV, XMLBusiness Objects / Crystal Reports Financier, production, marketing, RH et ventes INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP...)HTML, RTF...Cognos/ Cognos 8 Business Intelligence (module reporting)Financier et production INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP, K12)HTML et PDFHyperion / Hyperion System 9 BI +Financial ReportingFinancier, marketing, RH et ventes INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP, K12)PDF, RTF, XLS, XML (avec Hyperion Performance Scorecard)Information Builders / WebfocusFinancier, production et marketing INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP...)HTML, PDF, XML...Microstrategy / Microstrategy 8 (module reporting)Financier, production, marketing, RH et ventes INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET HTML, PDF, XML...Oracle / Business Intelligence Financier, production, marketing, RH et ventes INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET HTML, PDF, XML...SAS / SAS Enterprise BI Server (module reporting)Financier, production, marketing, RH et ventes INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET (GAAP, K12)HTML, PDF, RTF, XLS...Editeur/SolutionReportingsSAP B/WXBRLAutres normesFormats de publication
Environnement d'exploitation et bases de données
L'interopérabilité des solutions avec les principaux OS du marché est homogène. Elles peuvent en effet être invoquées indifféremment depuis Windows, Linux et Unix.
Une solution est interopérable sous Novell Netware (Webfocus), alors que celle de SAS l'est depuis un environnement mainframe.
Le support des tableaux croisés dynamiques de MS Office est possible pour presque toutes les solutions.
C'est également le cas pour la compatibilité avec des architectures 64 bits.Editeur/SolutionSystème d'exploitationBases de donnéesSupport tab. croisésSupport 64 bitsLangues géréesActuate / Actuate Enterprise Reporting Application PlatformWindows (2000, 2003), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX), Free BSD et Novell NetwareDB2, Oracle, Sybase, My SQL, SQL Server et Progress INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NC Business Objects / Crystal Reports Windows (2003), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX)Toutes bases ODBC, OLE DB, et JDBC INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET >30 langues Cognos/ Cognos 8 Business Intelligence (module reporting)Windows (NT, 2003, XP), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX)DB2, Oracle, Sybase, Terradata, SQLServer, toutes BdD ODBC/JDBC INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET 30 langues Hyperion / Hyperion System 9 BI+ (modules reporting)Windows (2000, 2003), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX)DB2, Oracle, Sybase...NCNCNCInformation Builders / WebfocusWindows (NT, 2003,), Linux (Red Hat, SuSe, noyau 2.4), UNIX (Solaris, AIX et HP-UX), Free BSD et Novell NetwareDB2, Oracle, Sybase... INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET 4 langues Microstrategy / Microstrategy 8 (module reporting)Windows (2003), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX) DB2, Oracle, Sybase, toutes BdD ODBC/JDBC INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET 7 langues Oracle / Business IntelligenceWindows (NT, 2003, XP), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX)DB2, Oracle, Sybase, Terradata... INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET >30 langues SAS / SAS Enterprise BI Server (module reporting)Windows (NT, 2003, XP), Linux (Red Hat) et UNIX (Solaris, AIX et HP-UX) et mainframesDB2, Oracle, Sybase... INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCEditeur/SolutionSystème d'exploitationBases de donnéesSupport tab. croisésSupport 64 bitsLangues gérées
Mode de fourniture et informations commerciales
Les solutions disponibles au travers d'un service Web reposent le plus souvent sur une architecture orientée services. Plusieurs solutions peuvent aussi être installées en mode stand alone (auto-suffisant) sur un poste de travail client.Editeur/SolutionStand- aloneService WebTarificationClientsActuate / Actuate 8 (e.report) INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCBNP-Paribas, France Télécom, FNAC...Business Objects / Crystal Reports  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET Dès 2 369 ¬ pour 5 util.VediorBis, Degriftour, Seliance...Cognos/ Cognos 8 Business Intelligence (module reporting) INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCBeauté Prestige International...Hyperion / Hyperion System 9 BI+ (modules reporting) INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCAlcatel, Auchan, Canal+...Information Builders / Webfocus INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET Dès 120 000 ¬ , nombre d'util. illimitéCrédit Mutuel, Pomona, EDF...Microstrategy / Microstrategy 8 (module reporting) INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCCétélem, SFR, Danone...Oracle / Business Intelligence  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET  INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET Dès 340 ¬ Crédit du Nord, T-Online, Priceminister... SAS / SAS Enterprise BI Server (module reporting) INCLUDEPICTURE "http://solutions.journaldunet.com/images/sticker.gif" \* MERGEFORMATINET NCSofinco, EDF, Sanofi-Aventis...Editeur/SolutionStand- aloneService WebTarificationClients
Parmi les nombreuses autres fonctionnalités de reporting financier, citons la gestion des normes GAAP (normes comptables généralement admises) et Sarbanes-Oxley dont sont capables les solutions du panorama.
L'édition de tableaux de bord prospectifs (balance scorecard) ou d'indicateurs clés de performance (KPI), est partagée par l'ensemble des solutions.
L'architecture n-tiers garantit la capacité de montée en charge des applications de reporting, qui ne sont pas limitées en termes de nombre d'utilisateurs finaux
Hôtellerie et Restauration
Immobiliers et Construction
JDN 28/10/05 Les Etats-Unis imposent des nouveaux passeports RFID
Les Etats-Unis, en rendant obligatoires les passeports avec identification numérique pour ses ressortissants et ses visiteurs, risquent de réveiller le marché de la RFID.  (28/10/2005)
Les récents passeports optiques auront eu une courte durée de vie : des modèles biométriques, avec une puce RFID embarquée, les remplacent d'ores et déjà. Parmi les initiateurs de ce programme de renouvellement, le département d'Etat américain avec sa loi sur la sécurité aux frontières de 2002 qui, suite aux attentats du 11 septembre 2001, vient d'imposer ce document d'identité dernière génération.
Les passeports pour ressortissants seront tous RFID avant fin octobre 2006 et, depuis aujourd'hui, les nouveau passeports des visiteurs doivent aussi être numériques pour bénéficier de l'exemption de visa. Cependant, la France ne founira ces modèles qu'à partir de Janvier 2006.
Le marché est de taille : plus d'un million de passeports sera émis avant la fin de l'année et autant en 2006. Les compagnies françaises ASK, Axalto et Oberthur ont d'ailleurs déjà été pré-sélectionnées pour ce futur contrat en or concernant la fabrication des étiquettes RFID. L'imprimerie nationale américaine (GPO) devrait très rapidement choisir parmi les huit compétiteurs.
Toutefois, ces passeports "intelligents" à haute fréquence (HF 13,56 MHz) et dotés d'une mémoire de 56 à 64K sont encore vivement critiqués. Les associations défendant la protection des données et le respect de la vie privée voient en ce document électronique une menace pour les libertés individuelles car le système est jugé encore trop perfectible et pourrait entrainer une utilisation dérivée des données.
Plus d'un million de passeports RFID émis avant fin 2005
Technologie relativement jeune, la RFID n'en est pourtant pas à ses premiers essais, malgré une phase de lancement assez longue (lire  HYPERLINK "http://solutions.journaldunet.com/0510/051014_analyse_rfid.shtml" l'article du 14/10/05). La récente norme EPC v2 a permis l'harmonisation des normes au niveau mondial, tout en augmentant la vitesse des échanges.
Cette norme radio a déjà rendu service à de nombreux acteurs outre-atlantique pour l'identification sans-contact. Les deux plus grands utilisateurs de la chaine logistique sont le transporteur Fedex et le groupe Walmart, qui a imposé à ses fournisseurs de s'équiper avec les mêmes systèmes.
Tous les secteurs sont concernés : éducation (gestion bibliothécaire et suivi des enfants dans l'établissement), médical (suivi des patients), transports (passe sans contacts aux péages et transport en commun), bancaire (cartes de crédits avec identification avant transaction par American Express)...
Ces puces guère plus épaisses qu'une étiquette et remplaçantes des codes-barres ont donc un avenir prometteur au vu des prescripteurs. Le prix atteint aujourd'hui 0,50 euros l'unité et les lecteurs démarrent à 150 euros.
Prévisions dépenses RFID : Etat américain et marché mondial
Dépenses RFID par l'Etat américain Dépenses mondiales en puces RFID
Aujourd'hui 51 millions de dollars 1 milliard de dollars
2009 112 millions de dollars 2,3 milliards de dollars
Sources RFID Journal - Future Horizons

Le marché de la RFID risque donc de démarrer activement avec cette volonté de l'administration américaine. En Europe, cette avancée nécessitera aussi l'implication de grands noms, seuls acteurs pouvant enclencher ce changement.
La Défense et Espace
Législation
Les échos 19/01/06 TVA réduite : Berlin et Paris cherchent un ultime accord
· Le Conseil économique franco-allemand en quête d'un accord sur la TVA pour la restauration · Proposition de compromis autrichienne · Les eurodéputés rejettent le projet de budget de l'Union
Avant de rencontrer Angela Merkel hier soir à Berlin, Dominique de Villepin a plaidé, à l'université Humboldt, pour une « Europe des projets », dont la France et l'Allemagne seraient les moteurs. Mais ce n'est qu'aujourd'hui, à l'issue du premier Conseil économique franco-allemand depuis la formation d'un nouveau gouvernement à Berlin, qu'on pourra évaluer les chances de renouveau des relations entre la France et l'Allemagne. D'accord sur l'objectif, renforcer l'efficacité des institutions européennes - alors que les eurodéputés ont rejeté le projet de budge t européen pour 2007-2013 -, les deux pays ne le sont pas toujours sur les modalités. Et les ministres des Finances, Thierry Breton et Peer Steinbrück, devront aborder le dossier épineux de la TVA à taux réduit. Le gouvernement allemand s'est montré jusqu'ici opposé à l'inclusion de la restauration parmi les bénéficiaires. La présidence autrichienne de l'Union a annoncé hier un projet de compromis qui ne fera que proroger les services bénéficiant d'un taux réduit, comme les travaux de rénovation de logements. Au grand dam de la restauration française.
Les échos 17/01/06 Contrat de travail : la fin d'une hypocrisie
PAR DOMINIQUE SEUX
En dépit de son expérience jusqu'alors limitée en matière économique et sociale, ou peut-être grâce à elle, Dominique de Villepin confirme mois après mois combien il aborde ces sujets sans tabous et sans préjugés. Avec l'obsession d'avoir des « résultats », et d'abord sur l'emploi. Il l'avait montré dès son arrivée à Matignon avec l'annonce du contrat nouvelles embauches (CNE), mesure phare de son premier plan emploi. Après l'été, il en a fourni une nouvelle preuve avec sa réforme de l'impôt sur le revenu et l'instauration du bouclier fiscal pour les contribuables fortunés. Et, à l'automne, il l'a encore confirmé avec l'ouverture du capital d'EDF et l'apprentissage à quatorze ans. A chaque fois, des ajustements ? Non, des petites révolutions !

Le second plan pour l'emploi présenté hier n'a pas à rougir de ces précédents. Le Premier ministre a annoncé des mesures audacieuses pour s'attaquer aux deux maux dont souffrent les jeunes : un taux de chômage élevé ; une situation qui fait qu'à force d'enchaîner les stages, les petits boulots et les CDD, un jeune ne l'est plus depuis longtemps quand il trouve un poste stable. La principale disposition est évidemment le « contrat première embauche » qui permettra aux entreprises de toute taille d'embaucher des moins de 26 ans avec une période d'essai de deux ans.

Hormis quelques protections supplémentaires, ce contrat ressemble comme un frère au CNE. La rupture est donc réelle avec la longue série de plans pour les jeunes qui se sont succédé depuis celui de Raymond Barre en 1977. Lesquels ont toujours été caractérisés par des coups de pouce financiers aux entreprises quand la droite gouvernait et des emplois publics quand la gauche était au pouvoir. Cette fois, il n'est pas question d'un emploi subventionné. Il s'agit d'un assouplissement conséquent du droit du travail dont le but est de lever les verrous psychologiques à l'embauche.

Dès hier, les syndicats ont dénoncé ce projet, au motif qu'il « généralisera la précarité » en ouvrant une nouvelle brèche dans le contrat à durée indéterminée. Sur la forme, ils ont raison de protester : les partenaires sociaux auraient dû être consultés. Sur le fond, leur appréciation est quelque peu hypocrite. Le CPE n'est certainement pas l'idéal auquel peut rêver un jeune et il sera moins avantageux que le CDI. Mais cette comparaison n'a pas de sens puisque l'accès à celui-ci est totalement virtuel. Le nouveau contrat représentera peut-être à l'inverse une avancée par rapport à la situation actuelle. A une condition : que les entreprises fassent, elles aussi, un pas en avant et corrigent certaines de leurs pratiques abusives.

Si l'on ajoute la création du CDD seniors et l'annonce par Dominique de Villepin d'une réflexion globale sur le contrat de travail et même les 35 heures, le droit social apparaît en tout cas bel et bien en chantier. Jusqu'où celui-ci ira-t-il ? Le chef du gouvernement espère sans doute que les messages envoyés aux syndicats ces derniers jours sur la sécurité sociale professionnelle et la réforme des cotisations patronales - au risque que l'ensemble ne soit pas très lisible - lui épargneront des tracas. Il surveillera en revanche de plus près les réactions des étudiants. Parce que ce sont eux qui, en 1994, avaient obtenu le retrait du CIP, un contrat spécifique pour les jeunes proposé par Edouard Balladur. Et parce qu'ils seront des électeurs bientôt courtisés.
JDN 17/01/06 Centre d'appels : les clauses contractuelles à négocier
Transfert de compétence, langue et horaires d'ouverture, confidentialité des données... Marc d'Hautfoeuille liste les points clés à aborder dans la négociation d'un contrat de prestations avec un Centre de relation client.   (17/01/2005)

Marc d'Haultfoeuille est avocat associé, Clifford Chance.

Si confier la gestion de sa relation clientèle à un tiers peut être synonyme d'économie de coûts, tout particulièrement dans le cadre d'un "offshore", cette opération n'est pas sans risque pour le client. En effet, bien plus que la simple gestion de sa relation clientèle (actuelle ou de prospects), le client (personne publique ou entreprise privée) confie en réalité à un prestataire une partie de son image, des données concernant sa clientèle ou encore la qualité de ses services. Il est donc nécessaire de mesurer et d'anticiper les risques du recours à un Centre de Relation Client (CRC), de niveau 1 ou 2, géré par un tiers. Voici quelques points clés à aborder dans la négociation du contrat de prestations.
Le transfert de compétence
Afin d'assurer un service en parfaite adéquation avec les produits ou services qu'il fournit aux clients finaux, le client doit veiller à former le prestataire en lui donnant toutes informations utiles tout particulièrement sur le contexte (l'entreprise, le secteur d'activité, le type de clientèle, etc.), l'accès à certaines parties de son système d'information, ainsi que sur les produits ou services concernés et leurs évolutions.
Le transfert de compétence ou de connaissance peut être complété par la remise des produits et de la documentation associée, par exemple la remise de terminaux dans le cas d'un opérateur de téléphonie mobile. Dans l'hypothèse ou la documentation ou l'information fournie serait incomplète ou insuffisante pour permettre un traitement des demandes des clients finaux conforme aux engagements de qualité, le prestataire devra en informer sans délai son client et s'engager à faire tous ses efforts pour assurer, malgré tout, un service de qualité. A la cessation du contrat, pour quelque motif que ce soit, une réversibilité (incluant un transfert de connaissance vers le client) devra être prévue.
La langue et les heures d'ouverture
La multiplication des centres d'appel délocalisés à l'étranger nécessite de s'assurer que le prestataire est en mesure de traiter et de comprendre les demandes dans la ou les langue(s) des clients finaux. La gestion du décalage horaire doit aussi être envisagée dans le contrat, de sorte que le centre d'appel soit accessible aux heures ouvrées, ou même au-delà, pour les clients finaux.
La confidentialité et la sécurité des données
Le prestataire ayant accès à des informations confidentielles (activité, clientèle, stratégie, etc.), il est impératif de le soumettre à un engagement strict de confidentialité. La sécurité des informations nominatives conservées et traitées devra être assurée par le prestataire et les modalités d'interconnexion entre les systèmes du prestataire et du client devront être définies.
En outre, le contrat devra rappeler que la clientèle est et restera la propriété du client et que le prestataire ne pourra, en aucun cas, démarcher les clients finaux en son propre nom, ni céder ou transférer tout ou partie des informations sur ces clients tant pendant la durée du contrat qu'après. A la cessation du contrat, le prestataire devra détruire ou restituer au client toutes les informations ou données archivées en sa possession.
La qualité du service
Des engagements de qualité basés sur des indicateurs précisés dans le contrat permettront au client de garantir un service de qualité.
La norme AFNOR NF X50-798 et la certification AFNOR NF345 pourront servir de base pour préciser ces engagements dans la mesure où elles définissent un certain nombre de critères considérés comme déterminants pour assurer cette qualité. L'un des principaux indicateurs quantitatifs est, bien entendu, l'accessibilité du centre d'appel. La certification NF345 estime que le seuil à atteindre d'appels décrochés dans un délai de vingt secondes est de 95 %. Bien entendu, il peut être supérieur. Le taux des appels perdus ou raccrochés, les temps d'attente, d'accueil et de discussion par les téléconseillers pourront aussi être définis et faire l'objet d'audits réguliers.
Après s'être accordés sur le périmètre de la prestation, le client et le prestataire devront définir les discours clients et les procédures couvrant toutes les hypothèses rencontrées. En tout état de cause, le client devra se réserver le droit, dans le contrat, de procéder ou de faire procéder à des appels mystères ou de mettre en place un système d'écoute à distance afin de vérifier la qualité de l'accueil, la pertinence des réponses, le respect des règles d'organisation ou tout éventuel scénario.
Le recours à des sous-traitants
Ce type de contrat est par essence un contrat intuitu personae dès lors que le client a confié la gestion de sa relation clientèle au prestataire en raison de sa compétence, des engagements de qualité ou de confidentialité. Si le prestataire envisageait de sous-traiter tout ou partie de sa prestation, le client doit, selon nous, donner son accord exprès préalable tant sur le principe que sur les conditions et modalités de cette sous-traitance.
La responsabilité du prestataire
Dans la mesure où cette prestation comprend de multiples aspects et que les équipes du prestataire sont en relation directe avec les clients finaux, la clause de responsabilité doit être analysée avec attention.
A titre d'exemple, l'atteinte à l'image, la perte de clientèle ou de commande peuvent être une suite immédiate et directe de l'inexécution par le prestataire de ses engagements contractuels. Les pré-qualifier de dommages indirects contractuellement, comme certains prestataires le font, doit être examiné par le client.
De même, toute limitation de responsabilité du prestataire doit prendre en compte, dans son calcul, les risques réels que pourrait subir le client.
Conclusion
Tout contrat permet de définir le périmètre des engagements de chacune des parties. S'il limite les risques, le contrat ne les supprime pas totalement. Il conviendra donc, pour le client, de rester vigilant à sa bonne exécution.
Notons également que ces centres d'appel sont juridiquement encadrés. A titre d'exemple, une information préalable, claire et précise doit être donnée aux consommateurs sur les conditions d'accès, notamment sur les tarifs des services. De même, le Gouvernement a notamment demandé aux opérateurs propriétaires de leurs réseaux de prendre les dispositions techniques pour instaurer en 2006 la gratuité d'attente pour les appels de leurs abonnés vers les centres d'assistance technique.
L'électronique
JDN 18/11/05 Expliquez-moi... La mémoire cache
Description du mode de fonctionnement de cette mémoire nécessaire à une utilisation optimale du processeur. Structure, méthodes, règles. (17/11/2005)
Nous savons tous ce à quoi correspondent les deux principaux types de mémoire d'un ordinateur : ROM et RAM. La ROM (Read-Only Memory), ou "mémoire morte", contient les données nécessaires au démarrage de l'ordinateur, à commencer par le BIOS et l'amorce. Comme son nom l'indique, elle ne peut pas se modifier. La RAM (Random Access Memory), ou mémoire vive, quant à elle, contient les données volatiles envoyées par le système d'exploitation. Elle est beaucoup plus rapide que la ROM.
La mémoire cache (ou "cache"), qui a fait son apparition vers les années 80, est quant à elle placée près du processeur, voire greffée sur ce dernier. Étant encore plus rapide que la RAM, le processeur s'en sert pour stocker les données auxquelles il accède particulièrement souvent, réduisant d'autant le temps de latence entre deux requêtes. La mémoire fait office de tampon entre le processeur et la mémoire vive.
Si cette mémoire est jusqu'à 10 fois plus rapide que la RAM, elle a cependant une capacité beaucoup plus limitée, notamment pour une question de prix. Pour disposer d'un système équilibré, il faut donc combiner différents types de mémoires plus ou moins rapides et onéreuses (en prenant également en compte les temps d'accès et tant de cycle).
Il peut y avoir de nombreux caches pour un seul processeur, chacun pouvant se spécialiser dans un jeu d'instruction particulier. Un cache peut même être placé entre le processeur et un autre cache, si cela peut servir les performances. Ainsi, plus le processeur est rapide, plus il profitera d'un grand nombre de mémoires caches - sans quoi ses capacités ne pourront être exploitées au mieux.
Concrètement, la mémoire cache fonctionne de la même manière que le cache d'un navigateur Internet : si le cache dispose de l'information demandée, il la fournit au processeur ; autrement, il récupère cette information envoyée par le fournisseur original, et la stocke pour une utilisation à venir.
Par ailleurs, si le processeur souhaite écrire une donnée en mémoire, il vérifie d'abord si l'adresse de la mémoire est dans le cache, par un système de comparaison interne. S'il la trouve, il écrit dans la mémoire cache, sinon celle-ci crée une nouvelle entrée dans laquelle elle stocke la donnée, en la recopiant depuis la mémoire principale
Parce qu'il n'offre pas autant d'espace que la RAM, le cache ne peut pas créer une entrée pour l'ensemble des données stockées par cette dernière. Elle doit donc à chaque création d'entrée faire un choix : décider quelle donnée cachée est la moins susceptible d'être utilisée dans les prochains cycles du processeur.
Plusieurs méthodes ont été développées au fil des années pour décider efficacement. L'une des plus logiques consiste à compter le nombre d'utilisations d'une entrée, et à évincer la moins utilisée au moment de la création d'une nouvelle entrée - c'est la méthode LFU, pour Least Frequently Used. Pareillement, la méthode LRU (Least Recently Used) visera l'entrée la plus anciennement utilisée.
D'autres éléments peuvent également entrer en compte dans ces choix. Tout d'abord, le "prix", ou disponibilité : si une entrée vieille ou peu utilisée a été difficile à obtenir lors de sa création, ne vaut-il mieux pas en évincer une moins "chère" ? La taille : évincer une entrée qui prend beaucoup de place permettra de stocker plusieurs petites entrées. Plus simplement, certaines entrées peuvent simplement avoir une date d'utilisation maximale, après quoi l'entrée est supprimée sans plus de test.
Il faut également faire la correspondance d'écriture entre cache et RAM : une entrée créée dans le cache profitera également d'être stockée en RAM, ne serait-ce que pour toujours exister en cas d'éviction du cache.
Là encore, plusieurs méthodes existent : copier l'entrée en RAM dès qu'elle est créée dans le cache, ou seulement quand elle en est évincée ? La question n'est pas anodine, car étant donné le temps d'accès de la RAM, la première méthode requiert deux accès à cette mémoire dix fois plus lente...
D'autres méthodes consistent à copier les données du cache périodiquement, ou à les stocker dans un tampon afin de copier plusieurs entrées en même temps (et ainsi économiser en temps d'accès du bus).
Xavier Borderie, JDN Développeurs
JDN 18/01/06 Le marché de l'archivage d'e-mail atteint 310 millions de dollars en 2005

Les derniers chiffres autour des solutions, matériels et technologies de stockage, des puces RFID aux SANs. 18/01/2006Prévision d'évolution du marché de l'archivage d'emails dans le monde 2005-2009 (en millions de dollars)

Année
Chiffre d'affaires

2005
310

2006
417

2007
560

2008
755

2009
1 015

Source IDC, janvier 2006

Prévision d'évolution du marché de l'archivage d'emails dans le monde 2005-2009 (en millions de dollars)

Année
Chiffre d'affaires

2005
465

2006
791

2007
1 375

2008
2 435

2009
4 431

Source Radicati Group

Marché mondial du stockage sur disques externes à contrôleur intégré (RAID, SCSI) au 3e trimestre 2005 (en millions de dollars)

Vendeurs
CA Q3 2005
PdM Q3 2005
CA Q3 2004
PdM Q3 2004
Evolution

EMC
810,3
23,7%
757,5
23,7%
+7,0%

HP
599,3
17,5%
535,0
16,7%
+12,0%

IBM
466,1
13,6%
385,5
12,0%
+20,9%

Hitachi/HDS
343,5
10,0%
287,0
9,0%
+19,7%

Dell
261,4
7,6%
189,7
5,9%
+37,8%

Network Appliance
226,1
6,6%
190,5
6,0%
+18,7%

Sun
185,5
5,4%
155,0
4,8%
+19,7%

Autres
526,8
15,4%
700,2
21,9%
-24,8%

Total
3 419,0
100,0%
3 200,5
100,0%
+6,8%

Source Gartner

La dépense mondiale en puces RFID 2004-2005 et prévisions 2006-2010 (en millions de dollars)

Marché
2004
2005
2006
2010

RFID dans le monde
362
504
751
3 000

Source Gartner
135
millions de dollars. C'est la taille du marché mondial des middlewares RFID prévue pour 2007. En 2004, ce chiffre atteint 16,4 millions de dollars. (Source Venture Development Corporation)





Livraisons mondiales de systèmes RFID en 2004 par secteur (en millions de dollars)

Secteur
2004
2007
Croissance annuelle moyenne

Matériels
1 000
2 800
+40,7%

Logiciels
150
500
+68,9%

Services
350
1 200
+49,8%

Total
1 521,8
4 699
+45,6%

Source Venture Development Corporation

Marché mondial des logiciels de stockage au 3e trimestre 2005 (en millions de dollars)

Vendeurs
CA Q3 2005
PdM Q3 2005
CA Q3 2004
PdM Q3 2004
Evolution

EMC
621
29,1%
585
30,1%
+6,2%

Symantec
427
20,0%
394
20,3%
-

IBM
201
9,4%
179
9,2%
+12,5%

HP
148
6,9%
104
5,4%
+42,5%

NetApp
143
6,7%
139
7,1%
+2,8%

Autres
595
27,9%
541
27,9%
+10,0%

Total
2 135
100,0%
1 942
100,0%
+10,0%

Source IDC

Marché mondial du stockage sur disques externes au troisième trimestre 2005 (en millions de dollars)

Vendeurs
CA Q3 2005
PdM Q3 2005
CA Q3 2004
PdM Q3 2004
Evolution

EMC
786
20,3%
735
21,3%
+7,0%

HP
740
19,1%
645
18,7%
+14,7%

IBM
499
12,9%
415
12,0%
+20,2%

Dell
325
8,4%
243
7,1%
+33,5%

Hitachi
321
8,3%
289
8,4%
+11,1%

Autres
1 207
31,1%
1 120
32,5%
+7,8%

Total
3 878
100,0%
3 447
100,0%
+12,5%


Marché mondial du stockage sur disques au troisième trimestre 2005 (en millions de dollars)

Vendeurs
CA Q3 2005
PdM Q3 2005
CA Q3 2004
PdM Q3 2004
Evolution

HP
1 348
23,5%
1 178
23,3%
+14,4%

IBM
1 188
20,7%
992
19,6%
+19,7%

EMC
786
13,7%
735
14,5%
+7,0%

Dell
477
8,3%
364
7,2%
+30,8%

Hitachi
330
5,7%
298
5,9%
+10,7%

Autres
1 611
28,1%
1 496
29,5%
+7,7%

Total
5 739
100,0%
5 064
100,0%
+13,3%

Source IDC

Les librairies de stockage dans la région Asie / Pacifique * 2004-2009 (en millions de dollars)

Type de librairie
2004
2009
Evolution annuelle

Chargeur automatique de bandes
66,85
52,38
-4,8%

librairies compacte
29,63
35,31
+3,6%

librairies d'entrée de gamme
106,45
109,42
+0,6%

librairies milieu de gamme
37,73
38,25
+0,3%

librairies haut de gamme
29,29
28,71
-0,4%

librairies très haut de gamme
28,40
22,81
-4,3%

Total
298,35
286,88
-0,8%


Source IDC * Japon exclu


Marché mondial du stockage sur disques externes à contrôleur intégré (RAID, SCSI) en 2004 (en millions de dollars)

Vendeurs
CA 2004
PdM 2004
CA 2003
PdM 2003
Evolution

EMC
3 063
22,6%
2 652
20,6%
+15,5%

HP
2 240
16,5%
2 394
18,6%
-6,4%

IBM
1 631
12,0%
1 712
13,3%
-4,7%

Hitachi/HDS
1 181
8,7%
1 166
9,1%
+1,3%

Sun
851
6,3%
881
6,8%
-3,4%

Dell
782
5,8%
634
4,9%
+23,4%

Network Appliance
737
5,4%
586
4,6%
+25,6%

StorageTek
162
1,2%
136
1,1%
+18,7%

Autres
2 893
21,4%
2 725
21,1%
+6,2%

Total
13 544
100,0%
12 889
100,0%
+5,1%

Source Gartner

Marché mondial des logiciels de stockage en 2004 (en millions de dollars)

Vendeurs
CA 2004
PdM 2004
CA 2003
PdM 2003
Evolution

EMC
1 661,1
29,5%
1 370,6
27,4%
+21,2%

Veritas
1 038,1
18,5%
929,3
18,6%
+11,7%

IBM
688,1
12,2%
616,0
12,3%
+11,7%

Computer Associates
296,7
5,3%
327,8
6,5%
-9,5%

Network Appliance
293,2
5,2%
169,0
3,4%
+73,5%

HP
271,5
4,8%
279,4
5,6%
-2,8%

Hitachi/HDS
256,2
4,5%
234,8
4,7%
+9,1%

StorageTek
104,5
1,9%
114,4
2,3%
-8,7%

Symantec
88,9
1,6%
98,4
2,0%
-9,7%

BMC Software
84,2
1,5%
78,6
1,6%
+7,1%

Autres
842,9
15,0%
789,5
15,6%
+6,8%

Total
5 625,4
100,0%
5 007,8
100,0%
+12,3%

Source Gartner

Marché mondial des logiciels de stockage en 2004 (en millions de dollars)

Vendeurs
CA 2004
PdM 2004
CA 2003
PdM 2003
Evolution

EMC
2 437
30,9%
1 921
28,3%
+26,9%

Veritas
1 730
21,9%
1 474
21,7%
+17,3%

Computer Associates
659
8,4%
585
8,6%
+12,7%

IBM
617
7,8%
565
8,3%
+9,1%

HP
527
6,7%
468
6,9%
+12,5%

Autres
1 922
24,4%
1 784
26,2%
+7,8%

Total
7 892
100,0%
6 797
100,0%
+16,1%

Source IDC

Le marché des systèmes de stockage sur disques dans le monde en 2004 (en millions de dollars)

Vendeurs
CA 2004
PdM 2004
CA 2003
PdM 2003
Evolution

HP
4 922
23,6%
5 216
25,8%
-5,6%

IBM
4 298
20,6%
4 241
21,0%
+1,3%

EMC
2 987
14,3%
2 523
12,5%
+18,4%

Dell
1 507
7,2%
1 285
6,4%
+17,3%

Hitachi
1 259
6,0%
1 253
6,2%
+0,4%

Sun
1 238
5,9%
1 300
6,4%
-4,7%

Autres
4 650
22,3%
4 402
21,8%
+5,7%

Total
20 862
100,0%
20 219
100,0%
+3,2%

Source IDC

2,1%
de croissance pour le marché global du stockage sur disque (interne et externe) au 3e trimestre 2004 (Source IDC)





Marché mondial du NAS au troisième trimestre 2004

Acteurs
Part de marché Q3 2004

Network Appliance
36,3%

EMC
34,8%


Marché mondial du SAN iSCSI au troisième trimestre 2004

Acteurs
Part de marché Q3 2004

Network Appliance
43,1%

EMC
22,1%


Marché mondial du stockage en réseau*

Acteurs
Part de marché Q3 2004
Part de marché 2003

EMC
28,9%
28,1%

HP
23,3%
26%

IBM
11,5%
14,4%


Source IDC * NAS (Network Attached Storage), Open SAN (Storage Area Network) et iSCSI SAN


Répartition prévisionnelle du marché mondial du stockage en 2004

Acteurs
Part de marché

  Matériels
54%

  Logiciels
33%

  Services
13%

Source Gartner

JDN 02/02/06 Droits d'auteur et peer-to-peer : lex, mensonges et idéaux

PAR LIONEL THOUMYRE Coordinateur de l'Alliance Public-Artistes,
responsable nouvelles techniques à la Spedidam

Licence globale optionnelle : ce dispositif est aujourd'hui au coeur de tous les débats autour du projet de loi sur les droits d'auteur. Lionel Thoumyre, coordinateur de l'Alliance Public-Artistes revient sur ses fondements et sur son périmètre d'application. (31/01/2006)
Etonnement général dans la nuit du 22 décembre 2005 : l'amendement autorisant le téléchargement des œuvres sur les réseaux peer-to-peer a été adopté à l'Assemblée nationale par 30 voix contre 28. Il s'agit du premier volet de la licence globale optionnelle.
Cette licence autorise, contre une rémunération versée aux ayants droit, les échanges de musiques et d'images effectués entre particuliers sur Internet. Le fait était-il si inattendu ?
Oui, car la licence globale n'avait reçu le soutien ni du Ministre de la Culture, qui présentait son projet de loi sur le droit d'auteur, ni du rapporteur de ce projet, ni du groupe UMP, majoritaire sur les bancs de l'Assemblée. Oui encore, car le projet de loi du Ministre avait été présenté à l'Assemblée nationale à la veille de Noël dans le cadre d'une procédure d'urgence. Les députés dissidents étaient supposés finir la déco du sapin, et non pas orner le projet du Ministre de cette fameuse licence…
Une crise annoncée
On pouvait néanmoins s'attendre à ce que cette solution soit âprement défendue. Soutenue par plus de quinze organismes qui composent l'Alliance public-artistes (dont la Spedidam, l'Adami, la SAIF, l'UFC Que-Choisir, l'UNAF et la CLCV), elle avait trouvé plusieurs partisans parmi des députés de droite et de gauche. Elle s'est ainsi imposée comme une solution réaliste pour régler le problème du peer-to-peer, sans endommager les libertés publiques.
Des cris d'alarme se sont ensuite élevés, parfois de façon surréaliste, au lendemain du vote de l'Assemblée. Riches vedettes et producteurs se sont emportés : "voler devient un droit", "mort du droit d'auteur", "plus d'argent pour la création" ... autant de bons mots assassins fondés sur des idées fausses. Une pratique qui relève de la caricature et confine à la désinformation.
La licence globale ne se substitue pas aux ventes commerciales
On fait comme si la rémunération issue de la licence globale allait se substituer à celles en provenance de la vente de CD, de musique en ligne et de places de concerts. Et bien non, les échanges d'œuvres entre particuliers ne se substituent pas aux ventes commerciales. Pourquoi ?
Parce que les sites payants offrent de véritables avantages par rapport aux échanges sur peer-to-peer : facilité d'utilisation, service fourni, sécurité informatique, rapidité du téléchargement et exactitude des informations (étude Médiamétrie/Spedidam, octobre 2005).
Parce que les plus gros copieurs sont aussi les plus gros acheteurs (étude Université Paris-Sud 11/Que-Choisir). Parce que les plus gros téléchargeurs sont aussi les plus fervents amateurs de spectacles vivants (étude Médiamétrie/Ministère de la Culture, juin 2005). Et pour preuve, à l'heure où les échanges non commerciaux sur Internet continuent de progresser, les chiffres de ventes des plates-formes payantes évoluent de manière exponentielle et celui de l'industrie du disque est de nouveau en hausse sur les 9 premiers mois de l'année 2005…
Cela, 13.482 artistes l'ont bien compris. Ils ont signé la pétition de la Spedidam par laquelle ils se sont prononcés contre la répression des internautes qui téléchargent et pour une solution de licence globale. Plus de cent Jazzmen, dont plusieurs sont membres de la SACEM, ont également co-signé une lettre ouverte allant dans ce sens. Mais pourquoi, alors, les "têtes de gondole" ne sont-elles pas d'accord ?
Tout d'abord parce que certains artistes ne connaissent pas les arcanes de ce débat, plutôt complexe. Ensuite, parce que les stars ne jouissent pas d'une réelle indépendance vis-à-vis des majors et analysent la solution de la licence globale à travers le prisme tendu par leurs producteurs, cristallisés sur une position aussi dangereuse qu'utopique : contrôler la diffusion culturelle sur Internet.
Un amendement aux conséquences modestes et protecteur des droits d'auteurs
Par ailleurs, les conséquences de l'amendement adopté ce fameux soir sont bien plus modestes que ce que l'on a voulu faire croire. Ce texte ne fait que confirmer la jurisprudence des derniers mois en matière de téléchargement sur les réseaux peer-to-peer (TGI de Bayonne, du Havre, de Rodez, de Toulon, de Meaux ou encore de la Cour d'appel de Montpellier…). En outre, il est plus protecteur des droits d'auteur que le droit positif puisqu'il fait en sorte que les artistes puissent être rémunérés pour un usage pratiqué depuis plusieurs années dans la quasi-gratuité.
La solution offerte par cet amendement ne mériterait l'opprobre que si les artistes et les producteurs avaient la possibilité avérée d'interdire la copie et la diffusion de leurs œuvres sur les réseaux peer-to-peer. Mais deux obstacles majeurs s'y opposent. Le premier obstacle est juridique, il concerne l'acte de copie : l'exception pour copie privée "interdit d'interdire" les reproductions qui sont effectuées à usage privée. Le second obstacle est matériel, il concerne tant l'acte de copie que l'acte de diffusion : depuis le milieu des années 90, de nombreux ayants droit ont vu leurs œuvres diffusées sur Internet sans que leurs interdictions, à coup de procès et de mesures techniques de protection, aient jamais été suivies d'effets.
Plutôt que d'interdire, mieux vaut accompagner les nouveaux usages
La solution n'est donc pas d'interdire des utilisations de masse. Elle est d'autoriser dans un cadre juridique fiable. C'est ce que propose la licence globale optionnelle. Cette autorisation permet d'obtenir, en contrepartie, une rémunération qui sera perçue par les fournisseurs d'accès et reversées aux ayants droit en fonction de leur audience, déterminée par l'observation de la circulation des œuvres sur les serveurs intermédiaires de stockage et/ou de larges panels représentatifs. L'autorisation est toutefois assortie de limites : elle ne vaut que pour les échanges effectués à des fins non commerciales entre particuliers.
Quelle est donc l'alternative que nous offre aujourd'hui les opposants à cette licence ? La "réponse graduée". Dans sa nouvelle version édulcorée, cette "réponse" est destinée à distribuer des amendes de 38 euros aux petits téléchargeurs.
Elle impliquerait ainsi une surveillance généralisée du réseau pour identifier les téléchargements portant sur des œuvres protégées. S'est-on seulement soucié de savoir si ce texte serait conforme à notre loi "informatique et libertés", aux directives européennes sur la protection des données personnelles ou à la Constitution française ? Les services du Premier Ministre ne se sont penchés sur le problème que très récemment.
A l'écart des solutions obstinément répressives, la licence globale optionnelle répond aussi à un idéal : l'accès du plus grand nombre à la diversité culturelle, sans contrôle des multinationales.
Logiciel
JDN 15/07/04 Appréhender l'Enterprise Resource Planning
Quels sont les outils recouverts aujourd'hui par le terme ERP ?
ERP signifie Enterprise Resource Planning, ce qu'on peut traduire par "gestion/planification des ressources de l'entreprise". En français, le terme consacré est assez différent : PGI pour progiciel de gestion intégré. L'adjectif "intégré" fait ressortir l'approche centralisée de l'ERP qui a pour vocation d'être l'outil unique par lequel les différents départements de l'entreprise (administratif, comptabilité et finance, ventes, production, ressources humaines….) sont mis en relation via l'informatique. L'ERP va automatiser des processus horizontaux ou transverses, gérer des workflows, collecter et agréger des données de natures diverses (données client, produit...), standardiser des tâches (ou fonctions de base d'une entreprise (le traitement des commandes par exemple) et dans l'idéal permettre de développer une vision d'ensemble de l'activité de l'entreprise, notamment en évaluant sa performance financière. Mais ces buts sont  HYPERLINK "http://solutions.journaldunet.com/0403/040312_tribune.shtml" loins d'avoir été atteints dans toutes les entreprises équipées.
L'ERP, ce n'est que pour les grands comptes ?
Sans surprise, l'ERP s'est de fait adressé d'abord aux grands comptes, contribuant au développement de sociétés comme SAP, Oracle, PeopleSoft... La clé est alors l'orientation métier, la verticalisation. Mais le mid market n'est pas oublié : les offres d'éditeurs comme Sage, Cegid, Qualiac ou d'autres se positionnent sur ce segment. Les sociétés plus petites sont un marché porteur, mais la présence réelle des éditeurs d'ERP dans ces structures  HYPERLINK "http://solutions.journaldunet.com/itws/040310_it_bazin.shtml" fait débat. Fait notable : on commence à voir apparaître des PGI Open Source comme Compiere, qui peuvent amorcer, par les économies de licences (mais non de mise en œuvre et de maintenance) qu'ils permettent, une véritable "démocratisation" de l'usage d'ERP.
On critique beaucoup les ERP pour leur complexité d'implémentation. Quel est le vrai du faux là-dedans ?
Redéfinition du mode de fonctionnement de l'entreprise, remise à plat des processus métier, accompagnement du changement... Tous ces aspects reviennent régulièrement quand on parle de l'implémentation de l'ERP, et l'on devine qu'ils sont vécus comme des sources de soucis et de coûts.
Si la plupart des fournisseurs indiquent une durée d'implémentation de 3 à 6 mois, on peut considerr qu'un projet ERP, en totalité, prend plutôt entre 1 et 3 ans en moyenne. Les problèmes  HYPERLINK "http://solutions.journaldunet.com/0406/040622_chro_bpms.shtml" surgissent surtout à cause d'une définition imprécise des besoins ou d'une absence de réflexion sur l'organisation cible plutôt que d'une inadéquation technologique.
Peut-on calculer le ROI d'un ERP ?
Peut-on ou  HYPERLINK "http://solutions.journaldunet.com/0312/031216_chro_lombard.shtml" faut-il ? Car les  HYPERLINK "http://solutions.journaldunet.com/0306/030626_sap_ernst.shtml" objectifs premiers sont, souvent, davantage qualitatifs et opérationnels (comme la finesse du pilotage et la réactivité interne) que purement financiers.
Parmi les coûts pas toujours pris en compte dans le projet ERP, citons la formation des utilisateurs dont les processus de travail ont pu être bouleversés, le recrutement sur des compétences techniques que l'entreprise ne possède pas toujours, la conversion et le nettoyage des données qu'il faut récupérer des différents systèmes déjà existants, etc. Pour le Meta Group, le coût d'un ERP (hardware, software, services et coûts internes) se monte à 15 millions de dollars en moyenne, et il faut attendre 8 mois de mise en production, toujours en moyenne, pour engranger les premiers bénéfices (les économies annuelles réalisées alors atteignent en moyenne 1,6 million de dollars par an dans l'évaluation du cabinet).
L'ERP permet-il de correctement prendre en compte les processus métier ?
La nature même des progiciels a longtemps empêché ceux-ci d'être véritablement "orientés processus". Les entreprises devaient s'adapter à l'outil plutôt que l'inverse. Mais de plus en plus, les grands éditeurs autorisent plus de souplesse, et de progiciel intégré on passe au  HYPERLINK "http://solutions.journaldunet.com/0403/040312_tribune.shtml" progiciel intégrateur (y compris des modules des concurrents). Le danger inverse est de glisser vers le  HYPERLINK "http://solutions.journaldunet.com/0405/040514_tribune.shtml" tout processus, mais encore faut-il savoir  HYPERLINK "http://solutions.journaldunet.com/0406/040623_chro_bpms.shtml" de quel processus on parle : processus métier ou processus capables d’être exécutés par le progiciel ? Dans tous les cas, l'offre d'ERP est depuis déjà un an en pleine mutation, et la concentration des acteurs, entamée  HYPERLINK "http://solutions.journaldunet.com/0402/040217_erp.shtml" il y a plus longtemps encore et qui se poursuit toujours (voir l'affaire Oracle/PeopleSoft ou les pourparlers de fusion Microsoft/SAP), vient en témoigner.
Les principaux fournisseurs
Grands comptes Middle market Open Source
Intentia  HYPERLINK "http://solutions.journaldunet.com/0406/040607_adonix_erp.shtml" Adonix Compiere
 HYPERLINK "http://solutions.journaldunet.com/0405/040517_oracle_erp.shtml" Oracle  HYPERLINK "http://solutions.journaldunet.com/0405/040527_cegid_erp.shtml" Cegid ERP5
 HYPERLINK "http://solutions.journaldunet.com/0405/040519_peoplesoft_erp.shtml" People Soft / JD Edwards Geac OFBiz
 HYPERLINK "http://solutions.journaldunet.com/0406/040604_sap_erp.shtml" SAP  HYPERLINK "http://solutions.journaldunet.com/0406/040609_generix_erp.shtml" Generix Value ERP
SSA Global / Baan  HYPERLINK "http://solutions.journaldunet.com/0406/040602_interlogiciel_erp.shtml" Interlogiciel
Navision (Microsoft)
 HYPERLINK "http://solutions.journaldunet.com/0406/040603_qualiac_erp.shtml" Qualiac
 HYPERLINK "http://solutions.journaldunet.com/0405/040525_sage_erp.shtml" Sage
36 milliards de dollars, c'est le marché mondial estimé des ERP pour 2008. Il représente aujourd'hui 26,7 milliards. (source : IDC )
20 % c'est la baisse enregistrée en 2003 des revenus des licences des éditeurs ERP sur le marché français (source: IDC)
1,7 milliard de dollars, c'est ce qu'a déboursé PeopleSoft en 2003 pour racheter JD Edwards
JDN 27/10/05 Bill Gates à Paris : "Les opportunités dans le logiciel sont plus nombreuses que vous ne le pensez"
L'architecte en chef de Microsoft a rappelé la prépondérance des logiciels dans l'économie mondiale et a incité la France à croire en ses capacités de création d'entreprises.
Programme chargé lundi dernier pour Bill Gates à Paris ! Après avoir rencontré Nicolas Sarkozy pour débattre du développement de la criminalité sur Internet, il a annoncé la signature d'un partenariat entre Microsoft Research et l'Inria et a lancé l’initiative "Idees" pour favoriser le développement de start-up françaises innovantes dans le secteur logiciel.
Le co-fondateur de Microsoft a ensuite rejoint une conférence sur les enjeux et perspectives de développement pour les éditeurs de logiciels en France. A l'initiative de Cegid, Dassault Systèmes et de Microsoft, et en présence notamment de François Loos, Ministre délégué à l'Industrie, ce débat a tout d'abord mis en avant que les 100 premiers éditeurs français ne représentaient qu'un dixième du chiffre d'affaires de Microsoft...
Le secteur de l'édition logicielle, caractérisé par une très forte atomisation, a pourtant connu une croissance de 8% en 2004. Mais il reste encore trop faiblement représenté au sein des bourses françaises. Entre 2000 et 2005, aucune introduction d'éditeur logiciel n'a été menée et seules 17 entreprises sont, à l'heure actuelle, cotées en bourse en France.
Selon Bill Gates, l'industrie du logiciel est une des plus excitantes qui soient aujourd'hui. Pourquoi ? "Parce que l'économie devient de plus en plus numérique. Des entreprises telles que Renault, Alcatel ou Thomson ont vu le logiciel prendre une place centrale dans leur activité, ce qui n'était pas le cas il y a quelques années. Même phénomène dans le secteur de la santé où les besoins en logiciel sont énormes, pour former les médecins, pour communiquer avec les patients, etc. Les emplois de l'avenir sont dans le logiciel !", a déclaré B. Gates.
Quid de la montée en puissance de l'Inde et de la Chine qui, après avoir fait leurs preuves dans les services, attaquent le marché du logiciel ? "Plutôt que d'abandonner la partie face à eux, la France devrait reconvertir ses forces vives dans le logiciel. Pour cela, les centres de recherche et les universités sont critiques, il faut veiller à les améliorer !", a ajouté le dirigeant. Mais pour relever ce défi, la protection de la propriété intellectuelle est un autre élément incontournable.
L'homme le plus riche de la planète s'est également souvenu de ses premiers temps d'entrepreneur, où toutes les lignes de code passaient entre ses mains pour vérification. "Je regrette de ne plus pouvoir le faire aujourd'hui ! Toutes les grosses entreprises - Google et eBay par exemple - ont commencé avec une ou deux personnes !". Et l'architecte en chef de conclure : "dirigez vos étudiants vers l'informatique, sinon l'Asie va tout prendre. Les opportunités sont plus nombreuses que vous ne le pensez !"
François Loos intervenait quant à lui en introduction du débat. Le Ministre délégué à l'Industrie a rappelé le contexte actuel : développement du haut débit, numérisation des bibliothèques, TNT... Selon lui, les pôles de compétitivité récemment créés répondent à ces enjeux, notamment ceux de Paris-Région System@tic (lire l' HYPERLINK "http://solutions.journaldunet.com/0507/050721_3q_pole-competitivite-paris.shtml" interview du 21/07/2005) et de Bretagne (Images & Réseaux).
"Les éditeurs sont des acteurs cruciaux. C'est un secteur encore jeune mais qui génère 12 milliards d'euros sur le territoire, par les éditeurs français ou les filiales d'éditeurs étrangers. Le logiciel fait partie des secteurs d'activités les plus susceptibles de faire émerger des entreprises à forte croissance", a complété le Ministre délégué.
Le P-DG de l'Inria, Gilles Kahn, a de son côté rappelé l'importance du "chaudron d'idées" que l'Inria s'attelle à entretenir et du transfert technologique réalisé vers les PME innovantes. "Notre stratégie, qui date de 1993, est que la valorisation des produits logiciels doit se faire à l'extérieur de l'Inria. A ce jour, 80 sociétés ont été créées dans ce cadre et 40 sont encore en vie, ce qui est plutôt honorable. En revanche, peu parmi elles ont atteint un effectif de plus de 100 personnes".
Quant à l'accord de coopération avec Microsoft Research, Gilles Kahn l'explique de la manière suivante : "Microsoft est une des rares sociétés à avoir développé une capacité de recherche fondamentale de grande qualité. Nous avons comme plan de mettre en place un laboratoire commun, en amont, pour réfléchir à ce qui pourrait se passer dans 7, 8 ou 9 ans", a précisé le P-DG.
Jean-Michel Aulas, Président de Cegid, s'est également souvenu de ses débuts d'entrepreneur et des éléments favorables lui ayant permis de se développer : une bonne idée à la base et une rencontre, celle de Ken Olsen, fondateur de Digital Equipment (société rachetée par Compaq en 1998). "Il a cru en notre projet et, par son parrainage, nous a donné les moyens de crédibiliser notre action", a noté le fondateur de l'éditeur.
Autres facteurs clés de réussite pour un éditeur : "la capacité à mettre en oeuvre un modèle économique rentable à court terme, pour montrer que la chose est possible. Ensuite, la capacité de fabriquer des fonds propres, pour financer la R&D et les acquisitions externes notamment", a commenté Jean-Michel Aulas.
Eric Archambeau, Associé chez Wellington Partners (société de capital risque), a comparé l'Europe aux Etats-Unis, constatant que la première ne possède pas, comme les seconds, de véritable Silicon Valley où une dense concentration d'entrepreneurs interagit avec plusieurs centaines de sociétés d'investissement (pas moins de 400 dans le comté de San Mateo). "En Europe, cela n'existe pas. Il existe bien environ 15 centres d'excellence mais ils sont disjoints", a regretté Eric Archambeau.
Et l'associé de poursuivre : "en France, nous possédons d'indéniables atouts en amont, du côté de la R&D. Mais cette tradition n'a proportionnellement pas donné autant de succès qu'aux Etats-Unis ou en Israël par exemple". Où le bât blesse-t-il donc ? Dans le manque de persuasion des porteurs de projets ! "Même avec une technologie moins sophistiquée qu'en Europe, les entrepreneurs américains se lancent ! Il y a une excellence technologique en France et une excellence marketing aux Etats-Unis !"
Enfin, étaient également présents Bernard Charlès, P-DG de Dassault Systèmes, et Jamal Labed, Président de Staff & Line. Le premier a rappelé que savoir faire évoluer l'idée de départ en permanence et savoir se projeter dans l'avenir pour anticiper le coup suivant est indispensable. Qui plus est, l'écosystème est primordial.
"Chez Dassault Systèmes, nous avons au moins une équipe d'entrepreneurs par marque. Et dans le monde, nous avons plus de 450 partenaires, dont Microsoft, car la démocratisation de la 3D passe par les standards. Le monde se dématérialise et le logiciel a sa place à jouer", a déclaré le P-DG.
Quant à Jamal Labed, Président de Staff & Line, il a exhorté les grandes entreprises à faire confiance aux petits éditeurs français, leur assurant qu'il n'y avait pas de risque à s'engager dans cette voie. Il a également rappelé que la création d'un Small Business Act à l'européenne était attendue par nombre d'entrepreneurs pour bénéficier d'une partie des fonds publics investis chaque année dans les logiciels.
JDN 27/10/05 Détection du P2P : la CNIL met le holà
PAR ETIENNE WÉRY Avocat aux Barreaux de Paris
La CNIL a finalement refusé la mise en place de systèmes permettant de repérer automatiquement le téléchargement illégal. Etienne Wery revient sur les fondements juridiques de cette décision.  (27/10/2005)
Au cours de sa séance du 18 octobre 2005, la CNIL a refusé d'autoriser quatre sociétés d'auteurs et de producteurs de musique à mettre en œuvre des dispositifs permettant la détection automatisée des infractions au code de la propriété intellectuelle et l'envoi de messages de sensibilisation aux internautes. Deux motifs principaux motivent ce refus : d'une part, la Commission n'a pas aimé le recours aux fournisseurs d'accès pour l'identification des internautes et le transfert à ceux-ci de messages d'avertissement ; d'autre part, elle a estimé que les dispositifs étaient disproportionnés à la finalité poursuivie.
Le cadre légal
Les données à caractère personnel relatives aux infractions, condamnations et mesures de sûreté sont des données réputées sensibles par la loi. Leur traitement est en principe interdit, sauf pour quelques personnes et organismes visés par la loi. C'est ainsi que l'article 9 de la loi de 1978 modifiée en 2004 lors de la transposition de la directive de 1995 stipule que leur traitement ne peut être mis en œuvre que par :
- les juridictions, les autorités publiques et les personnes morales gérant un service public, agissant dans le cadre de leurs attributions légales ;
- les auxiliaires de justice, pour les stricts besoins de l'exercice des missions qui leur sont confiées par la loi ;
- des personnes morales mentionnées aux articles L. 321-1 et L. 331-1 du code de la propriété intellectuelle, agissant au titre des droits dont elles assurent la gestion ou pour le compte des victimes d'atteintes aux droits prévus aux livres Ier, II et III du même code aux fins d'assurer la défense de ces droits.
Cette troisième catégorie vise essentiellement les sociétés de perception et de répartition des droits et les organismes de défense professionnelle régulièrement constitués.
La jurisprudence précédente de la CNIL
En décembre 2004, la CNIL a validé un système présenté par le Syndicat des Editeurs de Logiciels de Loisirs (SELL) qui fonctionnait en deux temps :
L'envoi de messages de prévention adressés aux internautes téléchargeant et mettant à disposition des logiciels de loisirs indiquant qu'il s'agit d'œuvres protégées.
Ces messages n'étaient envoyés qu'aux internautes téléchargeant ou mettant à disposition des logiciels de loisirs appartenant au catalogue d'un éditeur de logiciels dont le SELL défend les intérêts et n'avaient pas d'autre objet que l'information des internautes.
La Commission n'y a pas vu d'objection essentiellement parce que l'envoi ne donnait lieu à aucune conservation d'informations de la part du SELL. Ainsi, l'adresse IP des internautes à qui le message est adressé n'était ni conservée ni utilisée pour dresser un procès-verbal d'infraction.
2. La collecte de l'adresse IP de certains internautes en vue de dresser un procès-verbal d'infraction. La Commission a été favorablement impressionnée par le fait que ces adresses IP n'étaient collectées que dans des cas limités caractérisés par la gravité de l'infraction, et que les procès-verbaux permettant de lancer des poursuites ne pouvaient être dressés que par un agent assermenté désigné par le SELL et agréé par le ministère de la culture.
La CNIL s'était aussi assurée que les adresses IP ne pouvaient acquérir un caractère nominatif que dans le cadre d'une procédure judiciaire.
La décision négative du 18 octobre 2005
Quatre sociétés de perception et de répartition des droits ont présenté à la CNIL des dispositifs strictement identiques : la Société des Auteurs, Compositeurs et Editeurs de Musique (SACEM) ; la Société pour l'administration du Droit de Reproduction Mécanique (SDRM) ; la Société Civile des Producteurs Phonographiques (SCPP) ; la Société civile des Producteurs de Phonogrammes en France (SPPF).
Le dispositif présenté prévoyait :
- le repérage par les sociétés d'auteurs d'internautes mettant à disposition illégalement des œuvres musicales,
l'élaboration d'un message personnalisé d'avertissement ;
- la transmission de ce message et de l'adresse IP concernée au fournisseur d'accès dont cette adresse relève ;
- l'établissement d'une corrélation par le fournisseur entre l'adresse IP et son abonné à qui il transmet le message par courrier électronique.
Les motifs de refus
Trois motifs ont motivé le refus de la CNIL :
1. La collaboration des fournisseurs d'accès a déplu. L'envoi de messages pédagogiques pour compte de tiers ne fait pas partie des cas de figure où les fournisseurs d'accès sont autorisés à conserver les données de connexions des internautes. En outre, la corrélation entre l'adresse IP et une personne physique a été jugé contraire à la décision du 29 juillet 2004 du Conseil constitutionnel pour lequel l'identification à partir de cette adresse ne peut avoir lieu que sous le contrôle de l'autorité judiciaire.
2. Le côté disproportionné du dispositif a été pointé du doigt, notamment parce qu'il dépasse le cadre d'une intervention ponctuelle, peut aboutir à une collecte massive de données à caractère personnel et permet la surveillance continue des réseaux P2P.
3. En outre, la Commission n'a pas aimé que les organismes aient toutes les cartes en main : le seuil à partir duquel une action est lancée est en effet fixé unilatéralement et de façon discrétionnaire par les sociétés d'auteurs.
JDN 03/02/06 Le tableur, encore indispensable outil du décisionnel
Les entreprises sont encore nombreuses à recourir à des tableurs pour l'analyse et le croisement de leurs données. Ergonomie et adaptabilité sont les principaux facteurs clés de son succès. (03/02/2006)

Véritable pierre angulaire des suites bureautiques pour poste client, le tableur est encore largement prisé des entreprises, qui y recourent notamment pour des besoins d'analyse décisionnelle.
Apparu à la fin des années 1970 - le premier du genre, VisiCalc a été développé sous Apple I I-, le tableur étonne par sa longévité et l'évolutivité fonctionnelle dont il fait preuve, à l'heure des solutions décisionnelles intégrées.
 HYPERLINK "http://oas.benchmark.fr/5c/solutions.journaldunet.com/management/1990066251/x06/default/empty.gif/64396137376232383433386338323230" \t "_blank"  INCLUDEPICTURE "http://oas.benchmark.fr/0/default/empty.gif" \* MERGEFORMATINET 
"Le succès du tableur réside essentiellement dans ses possibilités de saisie étendues par le développement et le recours à des macros. De par sa simplicité d'utilisation, il peut être considéré comme un outil de reporting de base pouvant même être employé dans une action de pilotage de budgets", décrit Clémentine Huet, directrice des opérations chez Keyrus, société de services spécialisée dans l'intégration des solutions décisionnelles.
Le tableur a en effet su répondre aux nouvelles exigences des directions métiers aux premiers rangs desquels les directions financières et marketing, avec des fonctionnalités telles que la création de tableaux croisés dynamiques.
"Le tableur est et restera sans aucun doute un outil incontournable faisant partie de nos méthodes de travail. L'avènement de multiples plug-in permettant d'accroître la complémentarité avec les bases de données hétérogènes de l'entreprise assurera son avenir", affirme François Cabet, responsable des systèmes d'information et d'aide à la décision au sein de Pastacorp.
Bien qu'évolutifs, les tableurs sont de véritables "usines à gaz"
Cependant, les risques liés à l'exploitation d'un tableur dans le cadre d'une analyse décisionnelle sont loin d'être inexistants. Première limite : bien qu'évolutifs, les tableurs sont de véritables usines à gaz, dont le fonctionnement peut rapidement devenir complexe en raison des multiples développements de scripts ou de macros.
"Le problème du tableur est lié à la faible maîtrise de son évolutivité qui ne pourra pas être contrôlée ni exploitée en dehors de la personne qui s'est chargée de développer des fonctionnalités complexes, avec un risque de perte totale si le collaborateur qui en a eu la charge est amené à quitter l'entreprise", précise François Cabet.
Une autre limite réside dans sa capacité limitée d'interopérabilité avec les bases de données de l'entreprise, au profit d'outils plus adaptés tels que les requêteurs : "sur le marché de l'extraction statique, le tableur est en déclin face aux requêteurs qui se connectent plus facilement aux bases de données et surpassent la génération de liens ODBC d'Excel", indique Claude-Henri Meledo, directeur du cabinet de conseil Aldecis, spécialisé dans le domaine du décisionnel.
Dernier point faible, le faible degré de partage d'informations dont les tableurs font preuve et un risque élevé de manipuler des données retraitées, passant de main en main, apportant au final une vision erronée des critères ou indicateurs clés de performance (KPI) de l'entreprise.
Brique essentielle du décisionnel, le tableur ne peut assurément pas répondre seul aux enjeux d'un système d'information en constante évolution tant en termes de volumétrie des données que de la multiplication des environnements hétérogènes.

"Les fonctionnalités et l'évolutivité d'un tableur si elles peuvent être encouragées, doivent nécessairement être limitées. Le tableur n'est pas un outil du système d'information mais un outil d'utilisateur au service du système d'information", conclut le responsable des systèmes d'information de Pastacorp.
 HYPERLINK "http://solutions.journaldunet.com/0602/%20/contact/redaction.shtml" Dominique FILIPPONE, JDN Solutions
JDN 04/02/06 Produire du contenu pour son site Web en cinq étapes
La production de contenus online fait partie des thématiques qui occupent le devant de la scène. Mais comment définir des thèmes ? Qui peut créer ces contenus ? Quelques pistes pour organiser sa démarche. (06/02/2006)
La bataille du contenu en ligne est déjà à l'œuvre pour les sites de marque non marchands notamment, qui ne peuvent attirer les internautes que grâce à la richesse de l'information produite en ligne. Face à la pression concurrentielle, l'animation éditoriale d'un site revêt désormais un aspect hautement stratégique. Mais comment commencer ? Quelles étapes sont à prévoir ? Comment imaginer des thèmes et des sujets ? Stéphane Aknin, directeur associé du pôle interactif, et Stanislas Haquet, responsable grands comptes de l'agence de production de contenus Angie répondent à ces questions.
1 Définir ses objectifs de création de contenus
Avant toute chose, les éditeurs de sites Web doivent bien repréciser leurs objectifs. S'agit-il de fidéliser les clients en ligne ? De dynamiser l'audience du site ? D'instaurer un espace de dialogue avec le client ou le prospect ? La mise en ligne ou la création de contenus dépend en effet des objectifs que se fixe le responsable d'un site Web. D'autre part, après avoir bien défini la stratégie, la question de la ou des cibles visées s'impose. A qui offre-t-on ces contenus : à des prospects ? Des partenaires ? Des clients ? De ces différents éléments réponse, il est alors possible de définir globalement le contenu à mettre en ligne, ainsi qu'une certaine hiérarchisation des informations qui trouveront leur place dans le site.
2 Identifier les sources d'information en interne
"L'information existe d'abord et avant tout en interne. C'est pourquoi le premier travail consiste à identifier les principaux sourceurs, les dépositaires de l'information dans l'entreprise et ce, quel que soit le site à alimenter", déclare Stéphane Aknin. Le premier réflexe lorsque l'on pense à la collecte de contenus consiste à se tourner vers les départements de communication. Toutefois, il est recommandé en parallèle de privilégier la recherche d'information directement auprès des opérationnels et des fonctionnels en entreprise, ce qui permet d'obtenir une plus grande exhaustivité des informations recueillies. "Il est important de se constituer en interne son propre réseau d'information auprès des collaborateurs qui sont en mesure de faire remonter des informations. Un réseau qu'il est nécessaire d'animer par la suite", précise Stanislas Haquet.
De ce réseau d'information, remonteront deux types de contenus : d'une part, des informations périssables que l'agence Angie qualifie "d'informations de flux", liées à l'actualité de l'entreprise, qui nécessitent donc d'être rafraîchies fréquemment. A contrario, des informations plus génériques, dites "de stock" fourniront aux responsables de site en complément des contenus prêts à l'emploi, et indépendants de l'actualité. Par ailleurs, il est important de bien noter que le terme de "contenu" ne se limite pas aux seuls contenus rédactionnels. Dans un grand nombre d'entreprises, des présentations vidéos ont bien souvent été produites et exploitées en one-shot, alors que ces contenus filmés ne se périment généralement pas rapidement. Il convient donc de ratisser relativement large dans l'entreprise et de mettre en œuvre une collecte qui permette de capitaliser sur l'existant.
3 Intégrer des contenus externes
Si la collecte en interne permet de faire remonter des contenus bruts, ils nécessitent néanmoins d'être mis en forme pour correspondre aux objectifs définis en amont, ce qui impose un important travail de production. Pour cela, les entreprises peuvent choisir de faire appel à des agences spécialisées dans la création de contenus et intégrer ainsi des contenus externes créés sur mesure. "La production de contenus est un métier à part entière et qui prend du temps. Et si le recours à l'externalisation de la production peut de prime abord, apparaître coûteuse, elle s'avère intéressante lorsque l'on fait la somme des coûts indirects du recrutement de rédacteurs. Sans compter que ces ressources seront peu employables dans d'autres postes de l'entreprise ce qui pose un vrai problème de gestion des carrières et de réversibilité", affirme Stanislas Haquet. Les entreprises gèrent ainsi une "édition déléguée", en prenant en charge la collecte des sujets et des contenus bruts et en sous-traitant la réalisation de vidéos, de prises de photos, ou la rédaction d'articles.
D'autre part, en ce qui concerne l'intégration de contenus externes, mettre en ligne les commentaires fournis par les internautes via les FAQ, les réponses directes aux newsletters, les études de cas, les forums, ou les blogs, est aujourd'hui présenté comme une pratique incontournable. Toutefois, avant de se lancer, il est préférable de réfléchir en amont sur la manière dont l'entreprise va gérer ce type de contenu, car cela implique un contrat implicite avec l'internaute. "Si l'entreprise souhaite donner la parole aux internautes sur son site, il faut en revanche qu'elle soit consciente au préalable des moyens dont elle dispose pour avancer sur ce terrain, ainsi que de ses limites. Car dans ce domaine, la sanction peut être immédiate", alerte Stéphane Aknin.
4 Mettre en place une organisation autour de la production éditoriale
La recherche d'information en interne à laquelle s'ajoute l'intégration de contenus externes imposent aux entreprises de structurer leur démarche. Avant toute chose, il est donc primordial de s'assurer qu'il n'y ait pas déjà d'autres départements qui réalisent un projet de ce type dans l'entreprise, pour le compte d'un journal interne, d'un webzine ou autre. Il n'est en effet pas rare de voir différents projets être réalisés en parallèle, en raison d'une segmentation par type de média. Même si l'entreprise ne souhaite pas se réorganiser et mettre en œuvre une démarche commune, il est préférable que la recherche d'information en interne en vue d'une publication sur le site Web soit concertée. L'idéal étant, bien entendu, de rationaliser la recherche d'information en la centralisant pour l'ensemble des supports. A titre d'exemple, depuis trois ans, le groupe Danone a choisi de réorganiser la direction de la Communication pour remplacer son organisation par média en une organisation par catégorie de produits.

La création d'un comité éditorial intégrant les différentes sources d'information interne et externe à l'entreprise s'impose également afin de construire un planning éditorial. En complément d'un relais des temps forts de la vie de l'entreprise, qu'il s'agisse d'événements marketing, de la publication de résultats, ou de la tenue d'un salon, il convient de définir un tempo visant à créer une vraie dynamique en ligne. Toutefois, l'animation d'un site peut être déconnectée de la production de contenu en elle-même, et s'appuyer sur un jeu de mise en avant et de remontée de contenus qui ne sont mis à jour que de manière mensuelle.
5 Promouvoir son contenu éditorial
La production de contenus en ligne implique un important travail de scénarisation des informations choisies. Pour les responsables d'Angie, qu'il s'agisse d'un chiffre clé, d'une fiche technique, ou d'un communiqué de presse, chacun de ces contenus "va raconter une histoire". Une réflexion est donc à mener sur l'angle retenu, sur la manière de présenter l'information ainsi que sur les formats choisis (texte, animation Flash, vidéo, rich média). Ce travail permet ainsi à l'entreprise de promouvoir de manière bien spécifique son contenu produit en ligne. Par ailleurs, il est également important de reprendre les contenus créés au fil de l'eau et les mutualiser a posteriori. En effet, en fin d'année, certaines entreprises aiment mettre en image tous les événements marquants de l'année, ce qui implique un travail de nouvelle scénarisation d'une information existante et déjà produite. Enfin, pour promouvoir son contenu en ligne, la création d'une newsletter est à envisager pour inciter l'internaute à visiter les nouveautés mises en ligne sur le site.
JDN 04/02/06 Linux devient une cible de choix pour les créateurs de virus
Adoption croissante par les administrations, indépendance des codes malveillants vis-à-vis des systèmes d'exploitation, focalisation sur quelques grandes distributions... autant de facteurs qui fragilisent l'OS libre côté sécurité. (06/02/2006)
Poursuivant sa croissance régulière à deux chiffres, le marché des serveurs Linux a, depuis 2005, dépassé le milliard de dollars de chiffre d'affaires trimestriel. Un juteux marché que les spécialistes en sécurité informatique tentent aujourd'hui de conquérir. En témoigne leur présence au salon Solutions Linux 2006 qui vient de s'achever, et où se trouvaient des acteurs comme F-Secure, Sophos, McAfee, Kaspersky ou encore Bit Defender.
Les spécificités du système d'exploitation libre modifient cependant de façon non négligeable les règles des anti-virus traditionnels. Notamment parce qu'ils se positionnent avant tout sur des plates-formes serveurs et non sur des postes clients. Or, aujourd'hui les attaques visibles et massives par Internet ciblent d'abord les postes Windows, utilisés chez les particuliers. Linux doit donc plutôt faire face à des virus très ciblés ou des tentatives d'intrusion à distance.

"Linux est plus sécurisé que Windows dans un sens car il faut disposer des droits administrateur pour télécharger du code ou modifier un fichier binaire, par exemple. Le problème, dans le monde Windows, vient du fait que l'utilisateur final dispose souvent de droits administrateur sur sa machine. C'est le maillon faible de la chaîne de sécurité. Or, aujourd'hui, nous voyons de plus en plus d'administrations choisir Linux pour leurs postes de travail. Elles deviennent de fait une cible de choix pour les pirates", assure Stéphane Le Hir, P-DG de l'éditeur d'anti-virus Kaspersky France.
Selon Kaspersky France, il existerait aujourd'hui 712 codes malveillants ciblant le noyau Linux, la plupart utilisant une technique de contamination soit par scripts shell Unix, soit par infection des fichiers ELF. Même si la popularité croissante du système d'exploitation pourrait le desservir face aux menaces informatiques, Linux reste cependant relativement bien protégé.

La diversité des distributions Linux réduit la portabilité des codes malveillants
Cette protection, Linux la doit en partie à sa diversité en termes de distribution, un facteur qui réduit la portabilité d'un code malveillant. Par exemple, la gestion des droits administrateur ne s'effectue pas de manière identique d'une distribution à une autre. Ensuite, parce que la communauté - très réactive - corrige rapidement les failles de sécurité. Selon les analyses de Kaspersky, le nombre de failles repertoriées sous Linux est trois fois inférieur au nombre de failles sous Windows.
"Le travail au quotidien d'un utilisateur sous Linux est toutefois plus compliqué que pour Windows. Lors de la sortie d'un correctif, il n'y a pas forcément une communication officielle et surtout pas d'outils comme Windows Update pour automatiser la mise en place de ces correctifs", ajoute Stéphane Le Hir.
Pourtant, les mêmes risques attendent les futurs internautes sous Linux : renifleurs de clavier, logiciels espions, logiciels publicitaires, phishing... puisqu'ils nécessitent avant tout une intervention de l'utilisateur pour s'installer.
Les distributions Red Hat et SuSe se généralisant auprès des postes clients, elles minimisent toutefois le facteur de diversité qui protége en partie Linux.
Autre risque : le mélange de plus en plus courant entre système Linux et Windows au sein des entreprises, qui fait des serveurs Linux un relais potentiel des menaces pour les utilisateurs finaux. Enfin, les codes malveillants tendent à être indépendants du système d'exploitation, afin de cibler public toujours plus large.
JDN 27/01/06 Expliquez-moi... Le fonctionnement du protocole BitTorrent
Grâce à une idée simple mais très efficace, ce logiciel Open Source est devenu le protocole le plus utilisé pour la diffusion efficace de fichiers lourds. (27/01/2006)
BitTorrent est probablement le protocole d'échange de fichiers qui a connu la plus grosse progression ces dernières années - il est estimé qu'entre 50 et 80 % des transferts de données sur Internet se font aujourd'hui selon ce protocole. C'est également l'un des protocoles les mieux conçus, ainsi que le premier sans doute à être reconnu par les éditeurs de produits culturels.
Partager la bande passante
Le principe des systèmes peer-to-peer est de partager la bande passante nécessaire au téléchargement d'un fichier entre tous les utilisateurs d'un réseau.
Plus le fichier est partagé par un grand nombre d'utilisateurs, moins un utilisateur donné sera responsable pour sa distribution. De nombreux systèmes ont été mis au point pour gérer au mieux le nombre d'utilisateurs, mais dans la réalité la charge n'était que rarement vraiment partagée. Les systèmes Gnutella et Fasttrack en sont un exemple, mais n'ont jamais véritablement "pris".
Seeders, trackers, leechers
Le système BitTorrent tente de rendre le système proche de l'idéal : le fichier à partager est divisé en unités beaucoup plus petites (généralement, 256 Ko), et le serveur d'origine (ou "seed", graine) n'aura le plus souvent à partager chaque unité qu'une seule fois. Chaque ordinateur ayant téléchargé une unité peut à son tour partager cette unité avec d'autres ordinateurs.
Chaque client devient également seed, et le serveur d'origine voit ses requêtes grandement baisser : les clients se partagent le fichier entre eux, sans relation avec la source première. Les grands bénéficiaires sont ceux qui partagent de lourds fichiers, comme HYPERLINK "http://linuxtracker.org/"les distributions Linux dont les .iso atteignent facilement les 700 Mo, et sont demandés par beaucoup dans un laps de temps assez court.
Si les différents clients se contactent directement pour télécharger précisément l'unité disponible, il faut une méthode pour qu'ils se connaissent. Cette méthode repose sur l'usage d'un serveur central, appelé un "tracker". Celui-ci prend en charge la coordination entre les divers clients : les seeders (qui partage une ou plusieurs seeds) et les "leechers" (les demandeurs). Nombreux sont les trackers aujourd'hui sur Internet, souvent dédiés à un thème, parfois illégaux.
Le fichier .torrent
De point de vue du leecher, le principe est simple : il va sur un tracker, cherche et trouve le fichier qu'il veut, et lance le téléchargement du fichier .torrent qui lui est associé. Si le logiciel compatible BitTorrent installé sur sa machine est bien configuré, il commencera directement à chercher à contacter les seeders disponibles. Sinon, il attendra qu'un seeder se connecte.
Le plus gros du travail est réalisé par celui qui fournit le fichier en premier, la première seed. Celui prend en charge la création du .torrent, ainsi que le premier téléchargement du fichier complet.
Le .torrent contient toutes les métadonnées relatives au fichier à télécharger : nom du fichier, taille, empreinte hash de chaque unité, adresse du tracker, ... C'est un fichier binaire engendré à partir du fichier complet, avec un outil idoine, comme HYPERLINK "http://krypt.dyndns.org:81/torrent/maketorrent/"MakeTorrent, et stocké par le tracker. A noter qu'un .torrent peut également être produit à partir d'un dossier, dont tout le contenu sera alors partagé.
Une fois le .torrent envoyé sur un tracker, le seeder originel télécharge ce .torrent en pointant son logiciel vers le fichier ou dossier à partager, et le logiciel commencera à rendre les unités disponibles au grand public. Certains logiciels peuvent être réglés afin de ne partager une unité qu'une seule fois : ainsi, au besoin, une distribution Linux peut n'avoir à partager qu'une seule fois un fichier ISO, et laisser les autres clients partager l'ensemble entre eux. De leur côté, les clients téléchargent en priorité les unités les plus rares, afin d'en accroître la disponibilité.
JDN 10/02/06 Gérer un ordinateur à distance avec VNC

Etapes de la mise en place d'une connexion distante entre deux ordinateurs, à l'aide de l'outil Open Source UltraVNC. (09/02/2006)

Présentation Le poste de travail n'est plus unique : une personne peut avoir accès à plusieurs ordinateurs dans la même journée (travail, maison, portable), et vouloir utiliser toutes ses données et applications de la même manière. Le système standard pour ce besoin est VNC (Virtual Network Computing), qui repose sur le protocole RFB (Remote Frame Buffer). Il faut disposer d'un serveur VNC sur la machine à accéder, et un client VNC sur toute machine devant accéder au serveur.
 HYPERLINK "http://oas.benchmark.fr/5c/developpeurs.journaldunet.com/divers/1524846093/x06/default/empty.gif/64396137376232383433656236633430" \t "_blank"  INCLUDEPICTURE "http://oas.benchmark.fr/0/default/empty.gif" \* MERGEFORMATINET 
Le principe est que le serveur VNC capture tout comportement graphique en provenance de la machine, et l'envoie vers le client, qui peut ainsi afficher dans une fenêtre l'interface graphique de l'ordinateur - même si le client utilise un tout autre système d'exploitation. De son côté, le client doit pouvoir capturer les interactions de l'utilisateur sur la fenêtre affichant l'interface, et les envoyer au serveur, pour que celui-ci répercute ces interactions sur le système réel. Toutes les informations transmises sont encodées et compressées pour s'assurer que les évènements et affichages sont diffusées de manière aussi proche du temps réel que possible. Les logiciels proposant VNC sont nombreux, et la plupart sont gratuits. Certains offrent des méthodes de protection, mais par défaut VNC n'est pas sécurisé, il faut donc bien choisir, ou savoir utiliser SSH. Chaque implémentation peut disposer d'encodages spécifiques, mais tous reconnaissent celui de base, donc il est normalement possible d'utiliser un client VNC pour se connecter à un serveur créé par un autre éditeur… Sur Windows :  HYPERLINK "http://www.realvnc.com/" \t "_blank" RealVNC,  HYPERLINK "http://www.tightvnc.com/" \t "_blank" TightVNC et  HYPERLINK "http://ultravnc.sourceforge.net/" \t "_blank" UltraVNC font l'unanimité. A noter que UltraVNC propose un serveur  HYPERLINK "http://ultravnc.sourceforge.net/addons/singleclick.html" \t "_blank" SingleClick, qui permet d'accéder à une machine sans que son possesseur ait à installer et configurer l'échange. Idéal pour réparer l'ordinateur parental... Sur Mac :  HYPERLINK "http://www.redstonesoftware.com/vnc.html" \t "_blank" OSXvnc (serveur),  HYPERLINK "http://sourceforge.net/projects/cotvnc/" \t "_blank" Chicken the VNC (client).  HYPERLINK "http://metavnc.sourceforge.net/" \t "_blank" MetaVNC est disponible pour Windows et Linux, et propose un client Java. Il affiche directement les fenêtres du système distant parmi les fenêtres du client. Installation et configuration Voici la procédure à suivre, avec UltraVNC sous Windows XP. Tout d'abord, téléchargez le fichier marqué Ultr@VNC 1.0.1 Setup, un fichier zip contenant l'installateur UltraVNC-101-Setup.exe. Lancez ce dernier : il installera UltraVNC Server et UltraVNC Viewer. Vous pouvez choisir de ne pas installer l'un ou l'autre. Lancez UltraVNC Server, et débloquez le pare-feu de Windows quand il vous le demande. Une fenêtre assez technique s'ouvre : remplissez simplement le champ "VNC Password" de la section "Authentification".
 INCLUDEPICTURE "http://developpeur.journaldunet.com/exemples/outils/ultravncserver.jpg" \* MERGEFORMATINET 
L'interface principale de UltraVNC Server
Une fois le serveur installé et configuré avec un mot de passe, celui-ci devrait commencer à écouter les communications sur le port 5900 (il est possible d'en choisir un autre). Si l'ordinateur est protégé par un logiciel pare-feu, il faudra lui indiquer le port à libérer, sinon la connexion ne pourra pas se faire.
 INCLUDEPICTURE "http://developpeur.journaldunet.com/exemples/outils/ultravncviewer.jpg" \* MERGEFORMATINET 
L'interface principale de UltraVNC Viewer
Le client UltraVNC Viewer, de son côté, se connecte au serveur via l'adresse IP de la machine cible : il faut donc la récupérer, soit en passant par un site comme  HYPERLINK "http://www.whatismyip.com/" \t "_blank" whatismyip.com, soit via un programme comme winipcfg/ipconfig (sous Windows). Entrez l'IP dans le champ "VNC Server", et cliquez sur "Connect". Le serveur vous demande le mot de passe : donnez-le, vous êtes connecté.
 INCLUDEPICTURE "http://developpeur.journaldunet.com/exemples/outils/ultravnc-pass.jpg" \* MERGEFORMATINET   INCLUDEPICTURE "http://developpeur.journaldunet.com/exemples/outils/ultravnc-resultat.jpg" \* MERGEFORMATINET 
Le bon mot de passe mène à la connexion à la machine distante, à travers une fenêtre Windows classique.
Vos possibilités sont à partir de là liées à celles de l'outil : tous ne permettent pas, par exemple, de télécharger des fichiers entre client et serveur, ou d'optimiser l'affichage pour jouer des petites vidéos...
Management
JDN 06/12/05 Le DIF, c’est votre Droit ! Voici comment en bénéficier...
Pour la première fois en 2005, comme des millions de salariés du secteur privé en France, vous avez été informé de l’existence du DIF : le Droit Individuel à la Formation. Vous disposez déjà de 34 à 40 heures de droit à formation selon votre branche d’activité. Qu’est-ce que le DIF ? Comment bénéficier de votre droit à formation ?  HYPERLINK "http://www.cadremploi.fr/carriere/formations-154.htm" \t "_blank" Où trouver votre formation ?...
Le DIF est le dispositif phare de l’accord du 20 septembre 2003 conclu par les partenaires sociaux et repris par la loi du 4 mai 2004. Il institue un capital individuel déterminé en heures, déterminant des droits à formation dont le salarié peut disposer à son initiative, mais avec l’accord de son employeur. En cas de désaccord prolongé, le texte de loi définit une procédure permettant au salarié de demander au Fongécif d’intervenir. A noter qu’en cas de départ de l’entreprise, le DIF doit être demandé ou engagé avant la fin du préavis.
La quasi-totalité des salariés en CDI du secteur privé, disposant d’une ancienneté d’au moins un an dans leur entreprise, bénéficient chaque année d’un Droit Individuel à la Formation d’une durée de vingt heures. Pour les salariés à temps partiel, ce droit est calculé au prorata.  HYPERLINK "http://www.iciformation.fr/ed_legislatives.php" \t "_blank" Des accords de branche peuvent prévoir des durées supérieures. Chaque année le salarié en CDI à temps complet acquiert donc 20 heures de DIF, qu’il peut cumuler jusqu’à 120 heures. Au-delà, s’il n’utilise pas tout ou partie de ce capital acquis, celui-ci restera plafonné à 120 heures. Chaque année l’employeur doit communiquer les droits acquis au titre du DIF. Selon les accords professionnels, le point de départ de l’utilisation des premiers droits acquis (en général 20 heures) se situe au 01/01/2005 ou au 04/05/2005.
La mise en œuvre
Si le salarié a l’initiative de la demande (une  HYPERLINK "http://www.iciformation.fr/article-16-lettre-demande-DIF.html" \t "_blank" lettre simple suffit), il doit cependant obtenir l’accord de l’entreprise. Le choix de l’action de formation est arrêté en commun, et celle-ci se déroule, par défaut, en dehors du temps de travail. Dans ce cas le salarié perçoit en complément de sa rémunération,  HYPERLINK "http://www.iciformation.fr/article-17-allocation-formation.html" \t "_blank" une allocation formation représentant 50% de son salaire habituel. Des accords de branche peuvent ‘’encadrer’’ les actions prioritaires au titre du DIF ou prévoir un déroulement de l’action pendant le temps de travail. En cas de désaccord persistant pendant deux années, le salarié peut demander la prise en charge de son DIF par le FONGECIF ou l'OPACIF. Lorsqu’il y a départ de l’entreprise, le bénéfice du DIF doit être demandé pendant le préavis s’il s’agit d’un licenciement; l’action doit même être engagée pendant le préavis en cas de démission. Les actions éligibles au titre du DIF sont non seulement les stages ‘’classiques’’, mais également les  HYPERLINK "http://www.iciformation.fr/article-5-LE-BILAN-DE-COMPETENCES.html" \t "_blank" bilans de compétences et les actions de Validation des Acquis de l’Expérience -  HYPERLINK "http://www.iciformation.fr/article-2-La-VAE.html" \t "_blank" VAE
Trouver une formation éligible au DIF :
JDN 07/12/05 Réussir une présentation orale
En interne ou devant des clients, être bon en présentation vous permettra de faire la différence. Cela suppose de capter et de garder l'attention de l'auditoire. Tout un art, qui s'apprend. (07/12/2005)
Bâillements, regards dans le vide, concours de griffonnage… Pour éviter de voir de tels symptômes d'ennui dans l'auditoire le jour où vous prendrez la parole, voici les conseils de Jean-Pierre Léglise, consultant et formateur en communication.
Adapter sa présentation
"Ceux qui font une présentation oublient trop souvent de se centrer sur l'intérêt de leurs interlocuteurs", note Jean-Pierre Léglise. En amont, cela suppose de préparer chaque présentation selon l'auditoire. "C'est un travail contraignant mais nécessaire", insiste-t-il. Il vous permettra aussi de vous sentir plus à l'aise lors de votre intervention.
Attention à PowerPoint
PowerPoint ne sert qu'à accompagner votre discours. Lorsque vous préparez vos "slides", limitez-vous aux mots clés, qui seront un point de départ pour votre présentation orale.
S'entraîner
Réussir une présentation orale, cela s'apprend. Vous pouvez vous entraîner avec des collègues ou en formation. Rien ne vaut la vidéo pour bien détecter ses défauts. Pensez aussi à vous chronométrer.
Se relaxer juste avant d'intervenir
Quelques minutes avant la présentation, il faut se mettre dans de bonnes conditions. "Cela passe notamment par la respiration. Inspirez en comptant jusqu'à quatre, expirez en comptant jusqu'à huit", conseille le formateur. "Cela crée un vide émotionnel relaxant." Ensuite, préparez la salle, vérifiez que tous les outils fonctionnent et accueillez les participants.
Trouver une accroche
L'accroche vous permet d'attirer l'attention sur vous. Cela peut être une anecdote ou une question. Par exemple, dans le cas d'une intervention sur le thème Réussir une présentation orale, une accroche possible serait : "Qui parmi vous n'a jamais dormi pendant une présentation ?"
Se centrer sur l'auditoire
La présentation de votre société en Indonésie n'intéresse pas votre client qui habite dans l'Oise", plaisante Jean-Pierre Léglise. Cela paraît évident, mais on néglige trop souvent l'intérêt de l'auditoire, auquel il faut répondre dès le début.
Et toujours... Attention à PowerPoint
Ne lisez pas votre présentation PowerPoint. Partez uniquement des mots clés pour développer votre discours.
Faire court
"Un adulte a une capacité d'écoute limitée à douze minutes en moyenne", constate-t-il. Gardez ce chiffre en tête. Bien sûr, vous ne pourrez pas forcément tout dire en douze minutes. Mais vous pouvez en revanche ponctuer votre présentation de petites pauses : questions de l'auditoire, distribution d'un document, visionnage d'un film... Méfiez-vous cependant des documents supports qui risquent de monopoliser l'attention de l'auditoire, au dépend de votre discours. Si vous décidez de favoriser l'interactivité, vous devez vous sentir suffisamment à l'aise pour bien reprendre la main après une question. Si vous choisissez de prévoir un temps spécifique pour les questions, par exemple à la fin, annoncez-le dés le début.
Conclure efficacement
Vous rappellerez au moment de la conclusion les trois ou quatre principales idées que l'auditoire doit mémoriser. "La conclusion doit aussi donner une perspective", note-t-il.
Se mettre à la place de l'auditoire
Vous devez apporter des arguments jugés forts par l'auditoire. Cela suppose d'avoir réfléchi à ses besoins.
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET Etre convaincu
Si vous ne croyez pas en ce que vous dites, vous avez peu de chance de convaincre vos interlocuteurs.
Soigner la forme
« La forme prime sur le fond", relève Jean-Pierre Léglise. Sans une forme adaptée, le fond ne passe pas. Le regard, la voix, la gestuelle ou encore l'attitude permettent de transmettre sa conviction. Il faut parler suffisamment fort et varier les intonations.
Eviter les tics de langage
Les "euh", "donc" et autres "alors" polluent votre discours. L'orateur en est rarement conscient, mais les auditeurs entendent rapidement ces tics de langage. Pour les corriger, il faut les détecter, grâce à un enregistrement, et s'entraîner.
Travailler la scansion
Habituez-vous à remplacer ces mots "polluants" par un silence. "Les silences laissent le temps à l'auditoire d'intégrer vos propos. De plus, cela vous permet de mieux organiser votre pensée."
Faire simple
Evitez le jargon et les mots compliqués qui risquent d'exclure certains de vos interlocuteurs. Préférez des phrases courtes.
JDN 07/12/05 "Passer du mode projet au mode processus"
Henri-Paul Soulodre (Sopra)
Directeur délégué chez Sopra et administrateur du Club des pilotes de processus, Henri-Paul Soulodre décrit les avantages d'un pilotage de l'entreprise basé sur le BPM. (07/12/2005)
Qui se ressemble, s'assemble ! Cette loi est souvent vérifiée dans les sociétés humaines. Elle donne naissance à des groupes identitaires et alimente corporatisme et communautarisme.
Dans les entreprises, cette loi se manifeste sous la forme de l'esprit d'appartenance étroit à un bureau, un service, une direction, une structure. Elle est renforcée par l'habitude prise de s'organiser de manière fortement hiérarchisée. Cette loi conduit à une fragmentation des liens entre les personnes et, si ce n'est à une difficulté d'être, de vivre ensemble, plutôt, à la difficulté de vivre en relation avec l'autre. Elle induit également un comportement collectif assez statique qui est aux antipodes de la notion dynamique de projet, de mouvement vers un but, un objectif, un idéal…
La faiblesse du mode projet est que l'énergie communiquée est momentanée"
Pour évoluer, pour changer, pour s'adapter, l'entreprise a d'abord découvert le "mode projet", une organisation collective non hiérarchique tendue vers une finalité et à durée de vie limitée. Il permet à une organisation de passer d'un état stable permanent à un autre. C'est un comportement collectif dynamique et temporaire qui croise les lignes hiérarchiques habituelles. Sa faiblesse est toutefois que l'énergie que le mode projet communique à ceux qui en font partie est momentanée.
Aujourd'hui, venue des Etats-Unis, apparaît en Europe une autre manière de voir l'entreprise qui permet de concilier dynamisme et permanence, c'est le "mode processus" ou BPM, Business process management. On pourrait traduire littéralement par Management des processus du métier. Il apporte une persistance de l'effet souhaité qui se traduit dans l'organisation ainsi qu'un management d'un genre nouveau.
Quand la logique informatique s'applique au management
En fait, BPM est un terme qui vient des spécialistes de l'informatique. Ils ont bien avant les gens du métier, et grâce à la modélisation qui est leur lot quotidien (du moins pour les concepteurs), perçus que dans une application informatique, il y a ce que l'on nomme de la "procédure" et de la "data" pour reprendre une dénomination ancienne du COBOL ( HYPERLINK "http://management.journaldunet.com/0512/0512113tribune-soulodre.shtml" \l "cobol#cobol" *). Pour les data, il y a les bases de données relationnelles par exemple. Pour la partie procédure, il y a deux sous-parties, le conditionnement des opérations et les opérations elles-mêmes.
On peut dire que les opérations, qu'elles soient humaines ou automatiques, sont en fait des activités élémentaires de l'entreprise (tâches). Le conditionnement, pour sa part, décrit les conditions d'exécution de ces activités et les data sont celles qui sont utilisées et celles qui sont produites par ces activités quelles qu'elles soient (il y a aussi un flux de matière mais on peut également le modéliser).
Au plan informatique théorique, un système de BPM peut être décrit en trois parties :
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET Pilotage du flux des activités (automatisées ou humaines)
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET Réalisation ou "production" proprement dite des mêmes activités
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET Echange d'informations entre ces diverses activités
Le mode processus ou BPM n'est que la partie Système d'information d'un concept plus managérial qui est celui de pilotage de l'entreprise par les processus stratégiques. Il s'agit donc d'une discipline qui met la direction générale en prise directe sur les processus clés de l'entreprise. Les pilotes de ces processus cruciaux identifiés par la direction générale sont, en fait, ses représentants directs et opérationnels au quotidien.
Le pilotage de l'entreprise par les processus est à la croisée de trois disciplines de l'entreprise :
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET Le management des hommes et la stratégie d'entreprise
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET L'organisation des activités et des tâches, vue parfois au travers de la qualité
 INCLUDEPICTURE "http://management.journaldunet.com/images/v1/flechered.gif" \* MERGEFORMATINET L'automatisation flexible du flux des activités transverses de l'entreprise (ce que certains appellent STP ou Straight Through Process).
Cette approche, qui intéresse déjà les sociétés les plus modernes et dynamiques, sera celle qui rendra les entreprises plus adaptables à leur environnement, sûres de ne jamais oublier de bien faire leur métier de base et cela, totalement indépendamment de l'évolution plus ou moins lente de leur organisation interne. On parle grâce au BPM (informatique) et au management "par" les processus, d'entreprises devenues "agiles"...
COBOL : nom d'un langage de programmation et acronyme signifiant COmmon Business Oriented Language.
Apec 07/12/05 Savoir se vendre en entreprise
La progression dans l'entreprise suppose de faire valoir son travail, que cela soit au cours des entretiens d'embauche, des entretiens annuels, ou tout simplement à la machine à café. Un travail quotidien.
Savoir se vendre. Les jeunes diplômés qui ont déjà passé quelques entretiens d’embauche le savent : savoir se vendre passe par quelques règles simples telles que soigner et adapter son look, faire valoir ses avantages concurrentiels, avoir un CV constamment à jour, et, surtout, avoir un projet professionnel et le mettre en perspective avec ses premières expériences. Si ce savoir-faire s’acquière au cours des premiers entretiens d’embauche, les cadres en poste ont tout intérêt à l’entretenir. Etre acteur de sa carrière. Car rien n’est acquis. Les entreprises tendent, en effet, à individualiser la gestion de carrière de leurs cadres : à chaque étape il faut donc faire ses preuves, et "éviter que d’autres ne s’approprient votre travail", ainsi que le remarque Myriam Ogier, consultante en ressources humaines chez Sim Palmer international, auteur de "Savoir se vendre en interne". D’où la nécessité d’être acteur de sa carrière. D’autant qu’"une promotion ne s’attend pas, mais s’obtient", ajoute Myriam Ogier. Comme les jeunes diplômés, les cadres en poste doivent être capables de faire valoir leurs réalisations et leurs résultats en quelques phrases simples, par exemple en faisant une synthèse semestrielle. Autrement dit, savoir comment évoluer et donc avoir un projet professionnel. Dans cette perspective, le recours à un spécialiste du bilan de compétence peut s’avérer utile, notamment pour mesurer l’écart qui vous sépare de l’objectif, et envisager les moyens de le réduire. Il faut, également, mener un travail de veille, notamment en lisant les journaux internes, afin de ne pas perdre de vue la stratégie et les objectifs de l’entreprise. L’objectif étant, in fine, d’être constamment en mesure de prouver sa valeur ajoutée. Se vendre au quotidien. Se vendre est, en effet, un travail quotidien. Si l’entretien annuel d’évaluation est, bien sûr, un moment privilégié, il existe d’autres occasions, plus informelles, de faire valoir son travail : une réunion avec la direction, une rencontre à la machine à café, un échange de mails… Une bonne connaissance de l’entreprise, de ses réseaux, qui ne transparaissent pas forcément dans l’organigramme officiel, permet de s’adresser à la bonne personne. Le N+1 ou le directeur des ressources humaines ne sont pas les uniques leviers pour faire avancer sa carrière. "Il n’y a pas de correspondance automatique entre le titre d’une personne et son influence réelle", relève Myriam Ogier. Ainsi, il ne faut pas négliger les assistantes. Savoir se vendre suppose donc une stratégie de communication, du sens politique, et, surtout une "positive attitude".
JDN 16/11/05 Détecter et corriger ses défauts professionnels
Savoir se remettre en cause et écouter les autres sont des pré requis qui peuvent éventuellement être complétés par un 360°, de la formation ou du coaching personnalisé. (16/11/2005)
"Dans le passé, le curé, le maire et l'instituteur jouaient le rôle de référant", rappelle Claude Lévy-Leboyer, professeur émérite de psychologie du travail à l'université René-Descartes Paris V. "Aujourd'hui, nous avons toujours besoin de l'œil des autres". Si une démarche personnelle est indispensable pour mieux se connaître en milieu professionnel, un outil tel que le 360° est particulièrement adapté pour prendre conscience du regard des autres sur ses compétences et, dans une moindre mesure, sur sa personnalité. Et rassurez-vous, certaines compétences et certains traits de personnalité seront plus valorisés dans tel ou tel univers professionnel. "Dans le cadre de 360°, on constate d'importants décalages des compétences perçues comme importantes", note Claude Lévy-Leboyer qui a écrit Le 360°.
Dans l'entreprise, ce qui compte en premier lieu, ce sont vos compétences. Pour les évaluer, vous pouvez vous référer aux résultats que vous avez enregistrés ces dernières années. Vous pouvez aussi mettre à jour votre CV et revenir sur vos expériences professionnelles : réussites, échecs, moments de plaisir, moments difficiles, apprentissages, acquisition de compétences... Analysez ensuite ce qui se passe actuellement dans votre poste. Dans le cas d'un travail collectif ou du management d'une équipe, on a souvent tendance à attribuer les problèmes aux autres. Demandez-vous quelle est votre part de responsabilité. "Un défaut courant consiste à regarder son problème à travers les autres", prévient Dominique Steiler, coach et professeur à Grenoble Ecole de management. Par exemple, une équipe n'applique pas les directives d'un manager. Ce dernier estime que son équipe est responsable. En fait, sa manière de donner des directives n'incite pas à les appliquer. En réunion, il exerce une forte pression sur l'équipe, puis la rassure en disant qu'elle peut s'appuyer sur lui. "Ce manager doit travailler sur sa manière de communiquer", conseille le coach.
Au bureau, votre personnalité a également un impact important. Elle évolue moins que les compétences. "La personnalité se fixe en grande partie à la fin de l'adolescence", affirme Claude Lévy-Leboyer. Vous apprendrez à mieux la connaître avec le temps et au contact des autres. Avec qui préférez-vous travailler ? Pourquoi ? Analysez également vos comportements dans la vie privée. Des tests de personnalité pourront vous donner quelques pistes. Mais attention, la plupart est destinée à une utilisation clinique et non professionnelle. Dominique Steiler utilise le MBTI (Myers-Briggs Type Indicator). "C'est un des plus anciens tests, remarque-t-il. Il est précis sur sa délimitation et n'est pas normatif. Il ne valorise pas une dimension particulière de la personnalité."
« L'expérience est porteuse de développement de compétences. Il faut sortir de sa routine, accepter le changement", indique Claude Lévy-Leboyer. Les compétences se développent avec le temps. "Il faut apprendre, c'est-à-dire être apte à intégrer ce qui vient de l'extérieur", conseille Dominique Steiler. "Dans l'entreprise, nous sommes constamment en compétition. Il faudrait aussi des temps d'apprentissage." Lorsque vous arrivez à un nouveau poste, cherchez à convaincre votre supérieur de réduire le rythme pour évoluer en douceur. "En allant vite, on risque de faire des erreurs que l'on aura beaucoup de mal à corriger, prévient le coach. Il faut laisser du temps aux salariés." Dans le cadre du DIF, demandez des formations correspondant aux compétences que vous souhaitez développer. Mais soyez conscient que les formations ne permettront pas de corriger des défauts liés à votre personnalité.
Si vous souhaitez aller plus loin dans la connaissance de vos compétences, vous pouvez demander un 360°. Cet outil vous apportera la perception des autres, de vos pairs, de vos supérieurs et de vos subordonnés et votre propre perception de votre travail. Le 360° concerne principalement les compétences mais certaines questions peuvent traiter de votre personnalité. Il représente un investissement important en temps et en argent. Il ne vous sera donc pas forcément accordé. Pour plus d'efficacité, le 360° s'accompagne souvent de formations ou d'un coaching personnalisé, également coûteux pour l'entreprise. "Certains voient le 360° comme une évaluation avec une bonne ou une mauvaise note, remarque Dominique Steiler. Il faut au contraire le considérer comme une démarche pour apprendre."
Il est très difficile de corriger ses défauts, certains préfèrent donc les masquer. Ils risquent ainsi de finir par se les masquer à eux-mêmes. Mieux vaut au contraire en être conscient et agir en fonction. "Il faut connaître sa personnalité et la gérer, en évitant de se mettre dans des situations où elle peut poser un problème", insiste Claude Lévy-Leboyer. "D'un côté, il faut se demander ce que j'ai à transformer chez moi pour m'adapter à un environnement. De l'autre, il faut chercher à transformer en partie cet environnement", complète Dominique Steiler. Vous pouvez chercher à négocier avec votre supérieur hiérarchique pour modifier en partie votre travail. Par exemple, un professeur introverti limitera les cours en amphi. Il demandera plutôt des travaux dirigés et les organisera ensuite en sous-groupes.
Il est important de se remettre en cause mais il faut aussi savoir bien s'orienter, éventuellement changer d'employeur. Selon l'entreprise et le métier, certains types de personnalité et de compétences seront plus ou moins valorisés. Au regard de votre expérience, cherchez dans quelle structure vous sentez-vous plus à l'aise ? Certains se reconnaîtront mieux dans une start-up, d'autres dans un grand groupe. "Si je choisis un métier qui me correspond parfaitement, je me trouve dans une zone de confort, remarque Dominique Steiler. Je peux aussi choisir un métier dans une zone d'effort, tout en sachant quelles actions mener pour réussir."
JDN 01/02/06 Managers : savoir s'installer dans un nouveau poste
Arriver sur un nouveau poste quand on est manager, c'est avant tout reprendre la tête d'une équipe. Voici quelques conseils pour prendre tout de suite un bon départ. (01/02/2006)

L'installation dans un nouveau poste quand on est manager est un moment délicat qui conditionne beaucoup les relations qui vont s'intaurer par la suite avec son équipe. Sa propre crédibilité et la motivation de ses collaborateurs se jouent en grande partie pendant ces premiers jours. Mieux vaut donc éviter les faux pas. Rémi Juët, formateur et consultant en management, auteur de "La Boîte à outils du manager" (Dunod, 2005), consacre plusieurs heures de ses séminaires à répondre aux questions de ceux qui doivent reprendre une équipe. Il livre ses conseils au Journal du Management.
1
  Se renseigner sur l'activité du service



La crédibilité initiale du manager se joue essentiellement sur la connaissance qu'il a de l'activité de sa nouvelle équipe. Dès le premier jour, ses collaborateurs guettent ses éventuelles erreurs ou lacunes. Il doit donc faire preuve de curiosité et aller chercher l'information au préalable, par exemple auprès du DRH ou de son propre supérieur hiérarchique. Il doit s'interroger sur les spécificités du métier de ses futurs collaborateurs, sur leurs résultats passés et sur les difficultés qu'ils rencontrent. Montrer qu'on est informé du contexte présent est également important pour gagner leur confiance. S'il doit être renseigné sur l'activité de l'équipe, le manager ne doit en revanche pas chercher à se faire une idée sur les personnes qui la composent avant d'intégrer le poste. "Tout le monde a toujours quelque chose à dire sur ses collègues, que ce soit en négatif ou en positif, explique Rémi Juët. Le nouveau manager doit rester hermétique à ces propos qui influencent son avis sur ses futurs collaborateurs." Il doit découvrir leurs compétences et leur caractère par lui-même, au quotidien.

 

2
  Se présenter à toute l'équipe



Dès son arrivée, le manager doit réunir ses collaborateurs pour se présenter. Il doit exprimer sa satisfaction d'être parmi eux sans pour autant verser dans la langue de bois : s'appuyer sur les résultats passés de l'équipe permet de rendre son discours plus convaincant. Une règle d'or est à respecter : "ne jamais formuler de propos négatifs à la première réunion, pas plus sur les gens déjà en place que sur le manager qui vient de partir", met en garde Rémi Juët. En effet, même si ce dernier n'était pas apprécié, se permettre de le critiquer oblige le nouveau manager à faire mieux que son prédécesseur sous peine de perdre toute crédibilité.
Le nouveau manager ne doit jamais formuler de propos négatifs à la première réunion."
Rémi Juët
Cette réunion n'a pas pour objet de présenter le plan d'action et les réformes que le nouveau manager a l'intention de mener par la suite. Il s'agit simplement d'une prise de contact durant laquelle il doit montrer sa connaissance du service qu'il rejoint. Chercher à bouleverser l'ordre établi dès le premier jour risquerait d'être considéré comme de l'arrogance par son équipe et compromettrait ses projets. Il doit enfin annoncer ce qui va se passer durant les semaines suivantes, à savoir les entretiens individuels et la période d'observation.

 

3
  S'entretenir en privé avec ses collaborateurs directs



Suite à cette première réunion en public, le nouveau manager doit rencontrer en privé ses collaborateurs les plus proches, voire toute son équipe si celle-ci est de taille réduite. C'est à cette occasion qu'il commencera à se faire une idée sur leurs compétences et leur personnalité. S'il prend la place d'un collègue très apprécié, l'entretien individuel est le moment où le nouveau manager pourra gagner la confiance de ses collaborateurs : il devra apprendre ce que chacun d'eux aimait chez lui, afin, non pas de l'imiter, mais de savoir ce qu'il doit éviter de faire.

 

4
  Prendre le temps d'observer en allant sur le terrain



Les premières semaines du nouveau manager doivent être consacrées à l'observation de son équipe. Il se place dans la position d'un auditeur qui cherche à apprendre comment se déroule le quotidien d'un service. Il doit être particulièrement attentif aux relations qui lient ses différents collaborateurs et aux difficultés qu'ils rencontrent. Cette période d'observation dure idéalement un mois mais peut être plus courte si le service doit faire face à une situation de crise. La rencontre est le moyen de communication à privilégier pendant cette période d'installation. "Les échanges par mail ou par note de service ne permettent pas au manager de développer des relations humaines et personnelles avec ses collaborateurs", avertit Rémi Juët. Pendant cette période d'observation, seules les décisions de court terme doivent être prises. Les actions de moyen terme doivent attendre la fin du diagnostic.

 

5
  Organiser une réunion pour énoncer ses objectifs



La fin de cette période d'observation et d'analyse doit être marquée par une seconde réunion. Le manager doit restituer le résultat de ses réflexions. "Même lors de cette seconde réunion, il doit mettre l'accent sur les points positifs qui représentent idéalement environ les deux-tiers de ses observations", note Rémi Juët. Le manager peut alors légitimement annoncer les mesures qu'il souhaite prendre pour faire fonctionner le service et, à partir de là, laisser s'exprimer son style de management.

 

Médias
JDN 29/01/06 INCLUDEPICTURE "../../../image/gen/pixel.gif" \* MERGEFORMAT \d"Les bibliothèques numériques face aux contraintes techniques
Réveillés par Google à grands renforts de publicité, les grands projets de numérisation de documents en masse rentrent en phase industrielle. Mais les coûts restent pour le moment très élevés. (30/01/2006)
Fin 2004, Google défrayait la chronique par l'annonce de son projet de bibliothèque numérique (Google Book Search). Un projet dont l'ambition est de mettre en ligne, à la disposition de tous, 15 millions d’ouvrages, en les numérisant.
L'ouverture de la version béta s'est faite mi-2005. D'une durée prévisionnelle de six ans, ce projet pourrait coûter au moteur de recherche jusqu'à 200 millions de dollars.

Au-delà du projet de Google, la création de bibliothèques numériques rentre dans des problématiques plus larges, liées à la préservation du savoir et du patrimoine intellectuel. Les projets sont nombreux à travers le monde. Celui de la BNF (Bibliothèque nationale de France) porte le nom de Gallica ; il donne accès à 70 000 ouvrages numérisés et à plus de 80 000 images.
Dans la perspective de créer une véritable bibliothèque numérique, les documents de Gallica devront cependant être au préalable convertis en mode texte (mode OCR) par un procédé optique de reconnaissance des caractères. Cela permettra par la suite de réaliser des recherches plus fines dans ces documents.
Citons également la bibliothèque de Voltaire, projet commun entre la BNF et la Bibliothèque nationale de Russie, visant à mettre en valeur la bibliothèque de... Voltaire, conservée en Russie. La Bibliothèque des rapports publics regroupe quant à elle le texte intégral de rapports sur tous les thèmes de l'action publique (rapports officiels commandés par le gouvernement, rapports d'activité des institutions administratives, des hautes juridictions, etc.).
A noter aussi le projet Amalfi (Alsace-Moselle Application pour un Livre Foncier Informatisé) - en cours de réalisation - qui consiste à numériser 40 000 ouvrages du Livre Foncier d'Alsace-Moselle sur une durée de 4 ans. Ces ouvrages remplacent la conservation des hypothèques en vigueur ailleurs en France et ce, depuis 1891. Coût total de l'opération : 60 millions d'euros, dont 23 pour la seule numérisation / reprise des données. Les scanners sélectionnés de la société bordelaise i2S.

Si les projets sont nombreux, les contraintes techniques sont multiples
Enfin, citons le projet - en gestation - de Bibliothèque numérique européenne, lancé par Jacques Chirac en réponse à Google. Il a déjà rallié 23 bibliothèques nationales de l’Union européenne à sa cause.
Si les projets sont nombreux, les contraintes techniques sont multiples. La numérisation d'ouvrages ou de documents en masse, dont certains peuvent être très anciens, doit en effet répondre à certains prérequis.
Il faut tout d'abord investir dans des machines spécialisées, capables de numériser plusieurs milliers de pages à l'heure. Le scanner tourne-page de Kirtas peut, par exemple, sur des livres anciens, numériser 2 400 pages à l'heure, en noir & blanc ou en couleur. Ceux de la gamme Digitizing Line d'i2S peut atteindre 3 000 pages par heure. Qui plus, ces machines peuvent fonctionner en lumière ambiante ce qui est adapté aux livres très anciens.
"Sur le projet Amalfi, nous numérisons 50 000 pages par jour, avec quatre machines. Ces machines coûtaient 300 000 euros pièce il y a plus de deux ans maintenant", déclare Christophe Rouesné, ingénieur d'affaires chez Infotechnique, filiale de Getronics spécialisée dans la numérisation de documents.
Avec IBM, Infotechnique a été chargée par le Ministère de la Justice et les élus du Bas-Rhin, du Haut-Rhin et de la Moselle de ce projet. Les 32 millions de pages à numériser représentent 320 To d'images TIFF produites en quatre ans.
Une fois les images créées à partir des documents physiques, viennent les phases de traitement de l'image et de reconnaissance optique des caractères (OCR). Selon les critères de qualité voulus par le cahier des charges, les coûts et temps nécessaires à ces deux opérations ne sont pas du tout les mêmes.
"Le traitement de l'image consiste à la découper et à la redresser, les fonds des livres étant souvent de couleur crème ou beige. Il faut donc les convertir en noir et blanc. Si cela n'est pas fait proprement, la qualité de l'image initiale peut être détruite, tout comme la qualité du texte peut être affectée, ce qui affecte ensuite l'OCR. C'est une réaction en chaîne", détaille Lotfi Belhir, fondateur et P-DG de Kirtas Technologies.
La reconnaissance du texte s'accompagne de la définition du format du document. Un logiciel performant doit pouvoir donner ces sorties de format pour pouvoir utiliser le livre de plusieurs manières : en PDF pour l'imprimer, en XML, en texte ASCII, etc. "Tout cela doit être planifié car, une fois que l'OCR a été réalisé et que le format a été choisi, il est difficile de changer la donne, surtout sur des millions de livres", complète Lotfi Belhir.
Sans standard, la numérisation n'est pas
La question du stockage de toutes ces données est également critique. "Les documents audiovisuels représentent actuellement 80% des volumes mis à disposition des internautes sur le site Gallica. A une échéance de 10 ans, il est fort probable que nous atteignons 1,8 petaoctets", note Laurent Duplouy, expert fonctionnel au sein du département des systèmes d’information de la BNF.
"Les axes sur lesquels nous travaillons, dans le cadre des grands projets actuels de bibliothèques numériques, touchent à la virtualisation du stockage, à des systèmes de surveillance très sains - pour l'archivage -, aucune perte n'étant acceptable. Il faut de plus prévoir les migrations des technologies ou la mise à jour des supports car nous raisonnons à 70 ans, quand les droits seront levés, c'est une approche du patrimoine à long terme", ajoute Laurent Duplouy.
Enfin, la question des standards se pose, aucune norme précise n'ayant été clairement définie jusqu'à présent. Google œuvre de son côté avec son projet "Google Book Search". En riposte à Google, l'Open Content Alliance, qui regroupe Yahoo!, Microsoft, Internet Archive, HP et Adobe notamment, a été créée.

La bataille entre ces deux groupes s'annonce intéressante, mais débouchera-t-elle sur des standards communs ? Rien n'est moins sûr à court terrme. "La numérisation sans standard équivaut à une absence de numérisation", rappelle, en conclusion, Lotfi Belhir.
HYPERLINK " /contact/redaction.shtml"Fabrice DEBLOCK, JDN Solutions
Le Monde 03/02/06 Free et ses abonnés désenchantés (3/5)
Pionnier de l'offre "triple play" (Internet, téléphonie et télévision), pionnier du dégroupage total ( plus d'abonnement à régler à France Télécom), Free a, depuis l'été 2004, vu son image se ternir considérablement. La faute à une hotline insuffisante et une tarification opaque, le jeune opérateur est devenu la bête noire des associations de consommateurs.
Dans un comparatif des "box triple play" daté de février, le mensuel Micro Actuel salue les fonctionnalités de la Free Box, "véritable plate-forme multimédia aux services aboutis", avant de regretter "la complexité d'utilisation et la quasi-inexistence du service client qui en font une box réservée aux utilisateurs avertis".
Pour résumer : un produit novateur desservi par les défaillances du service client. Un problème rapidement identifié par les associations de consommateurs. Dès 2004, l'Association française des utilisateurs du téléphone et des télécommunications (Afutt) tire la sonnette d'alarme : en un an, le nombre de plaintes relatives au secteur Internet a triplé. L'inefficacité du service après-vente de Free a une large part de responsabilité dans cet état des lieux.
Alertée, l'Autorité de régulation des communications électroniques et des postes (Arcep) frappe du poing sur la table et recommande à Free d'améliorer ses services. Selon Michaël Boukobza, directeur général de Free, l'avertissement a été pris en compte et les services clients de son entreprise auraient progressé.
SITUATIONS KAFKAÏENNES
Free "subit les erreurs de câblage des autres opérateurs. Nos abonnés se retrouvent dès lors sans téléphonie ni Internet pendant une période qui peut aller jusqu'à vingt jours. L'effet est épidermique", poursuit Michaël Boukobza. Le délai inacceptable que subissent les "freenautes" pour retrouver l'usage de leur ligne ne dépendrait pas seulement de l'opérateur alternatif mais largement du bon vouloir de l'opérateur historique, estime le jeune directeur : "La durée pendant laquelle l'abonné se retrouve déconnecté varie de deux à vingt jours. C'est le temps qu'il faut pour que France Télécom rétablisse la ligne. Je ne veux pas croire que ces écrasements de ligne et cet énorme temps de latence à les rétablir soient le fruit d'une volonté de l'opérateur historique. Mais cela démontre un défaut organisationnel patent", conclut-il.
Toutefois, les difficultés à joindre la hotline de Free et le caractère inapproprié, voire farfelu, des réponses apportées aux utilisateurs ne dépendent pas, elles, du bon vouloir d'un opérateur tiers. Les forums des différentes associations d'utilisateurs, HYPERLINK "http://www.aduf.org/portal.php"ADUF, HYPERLINK "http://www.freenews.fr/nat.html"Freenews, HYPERLINK "http://www.freeks.org/portailv2/"Freeks, regorgent de témoignages de freenautes désespérés par une situation kafkaïenne.
Interrogés sur un problème d'interruption totale de service, les hotliners de Free peuvent préconiser à l'utilisateur des interventions étonnantes, voire irréalisables, telles que "changer l'ensemble de l'installation téléphonique si elle a plus de deux ans". Ils se donnent également la possibilité de refuser de tester la ligne (en panne) de l'abonné si ce dernier n'est pas en mesure de remplacer la Freebox par un modem ADSL compatible, "pour voir si la panne vient de la Freebox" (l'achat du modem pour le test est évidemment à la charge du freenaute en panne).
"FAIRE SIGNER PAR SURPRISE"
Philippe Ouakrat, juriste de l'association d'utilisateurs Freeks, voit dans ce mode de fonctionnement "un modèle économique". "L'idée est que le service fonctionnera dans 95 % des cas, et que les 5 % restants, après des heures passées au téléphone avec des hotlines, des jours à espérer une intervention réparatrice, se fatigueront. Les clients usés auront un besoin de plus en plus impératif de retrouver une ligne téléphonique et un accès au réseau, et paieront dans la majorité des cas les frais de résiliation sans chercher à faire valoir leurs droits. Free joue sur le rapport de forces déséquilibré entre le FAI et le consommateur."
Autre sujet de mécontentement des utilisateurs, une communication des tarifs pas vraiment transparente. En février 2005, Free annonçait une baisse de tarif des communications émises depuis une Freebox vers les téléphones mobiles, "alors qu'en réalité le prix de la plupart des communications augmentait", rappelle Que choisir, le magazine de l'Union fédérale des consommateurs dans son édition de février 2006.
Rebelote fin 2005, Free annonce la gratuité pour les appels vers plusieurs pays étrangers. Toutefois si le freenaute accepte les conditions générales de vente liées à cette nouvelle offre, ses communications locales et nationales lui seront désormais facturées dès lors que son interlocuteur est abonné à un autre opérateur alternatif. Pour un appel gratuit passé à l'étranger, le freenaute pourrait se trouver à payer plusieurs communications locales et nationales auparavant gratuites : pas forcément une bonne affaire pour la plupart d'entre eux. "A chaque nouvelle option que propose Free dans sa palette de services, le client doit 'signer électroniquement' [un simple clic] les nouvelles conditions générales des ventes, qui sont une refonte totale de la tarification. On tente de faire signer par surprise des conditions tarifaires pour lesquelles l'internaute n'a pas opté en connaissance de cause", estime Philippe Ouakrat, de Freeks. Mais pour Michaël Boukobza, "les nouvelles conditions générales de vente sont très claires".
L'offre de Free demeure néanmoins séduisante puisque l'opérateur compte environ 1 500 000 abonnés sur un marché très concurrentiel. Il reste le premier opérateur alternatif sur le marché des fournisseurs d'accès à Internet en France.

Les observatoires
 HYPERLINK "http://www.linternaute.com/science/espace/diaporamas/06/observatoires/1.shtml" http://www.linternaute.com/science/espace/diaporamas/06/observatoires/1.shtml
Médical
Produits chimiques
Produits de consommation
Recrutement
Apec 06/12/05 Du bon usage de l’entretien d’intégration
Embauchés de frais qui vous sentez un peu isolés à votre tout nouveau poste, rassurez-vous. Surtout si vous avez été recruté par le biais d’un cabinet. La plupart des contrats qui lient une entreprise et son consultant prévoit que ce dernier suive le candidat durant sa période d’essai. Alors n’hésitez pas à lui parler des problèmes que vous pouvez rencontrer au cours de cette période d’intégration. Car, son rôle, après vous avoir découvert et « vendu » à son client, consiste à ce que vous sentiez comme un coq en pâte dans votre nouvelle entreprise.
C’est qu’en cas de départ de votre fait ou de celui de votre employeur, le consultant devra vous trouver un remplaçant. Et gratuitement en plus. Autant dire que le cabinet a tout intérêt à suivre son poulain pour désamorcer tout souci. Il ne faut donc pas hésiter à le solliciter. Mais attention, le consultant n’est ni un confident ni un coach, c’est un intermédiaire entre vous et la direction de l’entreprise. Si des promesses précises vous ont été faites durant les entretiens d’embauche et qu’elles ne sont pas respectées, vous pouvez vous en ouvrir à lui. Un avantage en nature négocié mais jamais perçu, un collaborateur promis mais jamais embauché, peuvent être autant de griefs que le consultant pourra relayer auprès de son interlocuteur, généralement le DRH. Il est souvent beaucoup plus facile de faire part de ses petits tracas et de ses grandes déceptions à une personne extérieure à son univers professionnel quotidien. Mais ne vous laissez pas emporter : le consultant du cabinet de recrutement n’est pas là pour recueillir vos états d’âme sur les atomes crochus qui vous manquent avec tel collègue, tel supérieur ou tel subordonné. Sauf si ces relations empiètent gravement sur votre travail. Il faut toujours mesurer la parole que vous lui livrez. Cette prudence est d’autant plus de mise que l’entretien dit « d’intégration » que vous aurez avec lui à la fin de votre période d’essai est généralement retranscrit et transmis à la DRH. Tout ce que pourrez dire pourra être retenu contre vous mais pourra également vous servir. C’est dans cet esprit que le service des ressources humaines attend avec curiosité le mémo du recruteur. Car il y découvre souvent des dysfonctionnements insoupçonnés au sein de l’entreprise et peut, le cas échéant y remédier. L’entretien portera notamment sur la façon dont vous percevez l’entreprise maintenant que vous y travaillez. Signaler un manque de délégation de la part des tops managers qui ralentissent l’avancement de projets peut être riche d’enseignements pour le DRH. A vous d’y mettre les formes pour que le message ne signifie pas que vous ne pensez pas tenir longtemps dans ce genre d’organisation. Même recommandation concernant les attentes que vous pourriez exprimer par rapport à votre équipe. Si vous estimez qu’elle est insuffisante pour faire face au nouveau marché que vient de remporter l’entreprise, argumentez en proposant des solutions raisonnables. A moins que vous ayez effectivement décidé de ne pas terminer votre période d’essai. C’est aussi au consultant qu’il faut confier ce projet en premier car il peut rester un allié pour la suite de votre carrière.
Cadremploi 31/01/06 Apprenez à décrypter une offre de recrutement
Attention, une offre d'emploi peut en cacher une autre... Selon les postes ou les secteurs, la logique de recrutement qui s'en suit n'est jamais tout à fait la même. Elle peut parfois aboutir à des scénarios qu'une lecture rapide de l'annonce ne laissait pas présager. Quelques pistes pour y voir plus clair.
Afin de mieux comprendre les mécanismes du recrutement par annonce, l’Apec a réalisé une étude qui permet de suivre le devenir d’une offre d’emploi, de sa publication jusqu’au recrutement. Surprise, ce que l’on appelle le "taux de recrutement" varie selon les postes, les secteurs et le contexte de l’embauche.
Des spécificités selon les fonctions et les secteurs. Si vous postulez dans les domaines des transports, de la banque, des assurances ou des services aux particuliers, votre candidature se déroulera dans un contexte plutôt favorable. En effet, dans ces secteurs, le taux de recrutement se situe entre 70 et 76 % Par contre, dans la construction ou le conseil assistance, une annonce donne suite à un recrutement dans un cas sur deux. Autant le savoir tout de suite et ne pas négliger d’autres approches des entreprises telles que le réseau, les salons professionnels ou les candidatures spontanées. Ces mêmes variations sont à l’œuvre du côté des fonctions. Exemple : le taux de recrutement sur offre pour des postes en communication, gestion administrative ou ressources humaines dépasse les 70 % alors qu’il reste inférieur à 60 % pour la R&D, la production ou l’informatique.
Un remplacement de poste vaut mieux qu’une création… Autre enseignement de l’étude : les annonces correspondant à un remplacement aboutissent plus souvent et, surtout, plus rapidement à un recrutement que dans le cas d’une création de poste. Pour autant, pas question de renoncer à ces dernières qui sont de loin les plus nombreuses sur le marché des offres d’emploi. Mais, pour gagner en efficacité, il est important de savoir si le poste proposé correspond à un remplacement ou à une création, de manière à adapter votre planning de relance au cas par cas. Encore faut-il réussir à décrocher cette information. Pour cela, utilisez votre téléphone et votre sens aigu de la diplomatie…
A l’arrivée, le profil défini dans une annonce peut changer. Vous n’y pensez pas forcément mais c’est pourtant logique : après avoir analysé les CV ou les premiers entretiens réalisés, certaines entreprises vont parfois s’intéresser à des profils qui n’entraient pas dans le cœur de cible de l’annonce. Ainsi, l’étude nous apprend que près de 9 % des offres destinées à des cadres confirmés ont abouti au recruY ®
Å
4L¼Ï1ÌÚV[]x×Ý…’a¢ƒ‰ŠÒÓÔÜÝë² µ C#L#$9$‰'F,…//Ž//Ø/üøüøíÞüüüüÖüÎüÀκÎüüü¶®£‘ƒh­,CJOJQJ^JaJ#jh­,CJOJQJU^JaJh­,5B*
\ph€€h­,B*phh­,
0J6]jHhÁTç6U]j6U]5B*
\ph€€B*
CJOJQJ^JaJph€€56B*
\]ph€€5\6]+  #0;Gxö Y ¥ ®
Æ
’¶ï}}}}{yyyyyyyokd$$IfT–FÖ   Ö”ÿ#ü#
tàÖ0€ ÿ€ ÿÿÿö6öÖÿÖÿÖ€Öÿ4Ö4Ö
laöpÖ
ÿÿŠT$IflÆ'žíþ¶¼Ñã1Ú?:a£]'q !"Ø"Ù" $:$ý$)'H,„/…/ýýûùýýýýýýýýýýýýýýýýýùýïïïï
¤d¤d7$8$H$…/Ž/ô/u0v0Â5Ã5ý9:a:;„?£?¤?¥?7@3A/B+C¸CòèèèèèèæäèèèèâÚÚÚÚÚ$IfK$
¤d¤d7$8$H$
$¤d¤d7$8$H$a$Ø/Ù/Ú/ò/ó/ô/õ/N0O0P0s0t0Ÿ0¨0#2-2-:`:a:;;ƒ?¤?¥?¦?3@4@êØÆØØ¸£ØÆØœœ˜…t`Q`B*CJOJQJ^JaJph333&jB*CJOJQJU^JaJph333