L’engagement moral du salarié envers l’entreprise, sa manière de concevoir son engagement vis-à-vis de son employeur et son implication dans le travail, ce qu’on appelle le contrat psychologique, diffère parfois sensiblement d’une culture à l’autre. Dans des entreprises de plus en plus ouvertes à la diversité, il est important de comprendre les ressorts de ce contrat psychologique pour gérer au mieux les attentes des salariés, quelle que soit leur origine culturelle.
Du fait des migrations, des expatriations, de la mobilité toujours plus grande des individus d’un pays à l’autre, la diversité culturelle devient une caractéristique fréquente de la société dans son ensemble et des entreprises en particulier. De sorte que les employeurs, même ceux qui ne se développent pas à l’international, doivent aujourd’hui gérer des ressources humaines de plus en plus multiculturelles. C’est une tendance que l’on observe dans les grands pays européens comme l’Allemagne, la France ou la Pologne, mais aussi dans des pays n’ayant pas une forte tradition d’immigration tels que la Turquie, la Chine ou l’Inde. Une fois ce constat établi, il est intéressant de se demander quels effets cette diversité culturelle nouvelle induit pour les entreprises.
La culture relève d’un système de valeurs, d’attitudes, de normes, de convictions et de comportements, qui sont partagés par un groupe d’individus (la société) et transmis par les générations précédentes.
[su_button url=”http://www.hbrfrance.fr/chroniques-experts/2016/07/11563-lengagement-des-salaries-varie-selon-les-pays-et-les-cultures/” target=”blank” style=”flat” background=”#f24e58″ size=”4″ radius=”0″]Lire l’article complet sur le site web HBR ›[/su_button]
Les obligations à impact social (OIS) incarnent la manière dont le marché financier, et la notion de profit, gagnent progressivement la sphère de l’action sociale. Elles offrent aux investisseurs privés la possibilité de miser sur la réussite des activités sociales et sont présentées comme une solution aux difficultés des États endettés à assumer le financement de certains programmes sociaux.
Appelées social impact bonds (SIB) en Grande-Bretagne ou pay-for-success (PFS) aux États-Unis, les OIS sont nées de la crise financière de 2008. En quête de supports d’investissement favorables à leur image, des institutions financières – telles que JPMorgan, Deutsche Bank ou Citigroup – développent alors de nouveaux produits socialement responsables.
Les OIS ont été lancées en France en 2016, mais leur principe, encore mal connu, soulève de nombreuses questions quant aux conséquences possibles d’une telle financiarisation du social.
Créées en Grande-Bretagne en 2010, les premières OIS financent des associations d’aide à la réinsertion d’anciens prisonniers afin de limiter la récidive et son coût pour la société. En 2016, dans la plupart des pays de l’OCDE, les OIS concernent de nombreuses actions sociales liées à l’éducation, l’emploi des jeunes, le logement et la santé. Elles soutiennent des programmes nationaux et internationaux (d’éducation et de santé dans des pays en développement, par exemple, soutenus par la Banque mondiale). Avec les OIS, les actions réalisées par des acteurs sociaux sont financées par un fonds, lui-même rémunéré par l’État en fonction des résultats obtenus par le « fournisseur de services ». C’est donc une transaction (figure 1) dans laquelle l’accord et l’expertise de multiples acteurs sont nécessaires (intermédiaires, consultants et évaluateurs).
Figure 1 : acteurs et processus de l’OIS.
L’idée forte des OIS est la promesse d’atteindre des objectifs financiers et sociaux, grâce à un pilotage à la façon du privé, ce dernier étant toujours considéré comme plus efficace que celui du public dans la mobilisation des ressources. Ainsi, au-delà des nouvelles sources de financement pour l’action sociale, deux résultats seraient susceptibles d’être atteints grâce aux OIS : une réduction des coûts et une amélioration des résultats sociaux. S’il est possible que les investisseurs privés œuvrent pour que les associations gèrent leurs ressources avec une plus grande efficience, l’efficacité globale du système mérite cependant d’être questionnée.
Tout d’abord, les OIS induisent le paiement d’une prime de risque et des coûts de coordination. Contrairement aux obligations traditionnelles dont le rendement est certain, les OIS présentent un risque de rendement si les objectifs de l’association financée ne sont pas atteints. Ce risque est pris en compte par l’investisseur, dont la rémunération devient potentiellement supérieure aux économies réalisées par l’État.
En outre, non seulement l’État paie une prime de risque, mais il se trouve également contraint quant au type d’actions financées par les OIS, puisque les investisseurs sont incités à choisir les projets présentant les meilleures perspectives de rentabilité, laissant à la sphère publique les missions sociales moins lucratives.
Le fonctionnement des OIS repose ensuite sur la capacité à rémunérer des investisseurs à partir de l’évaluation des résultats de l’action sociale. Or, la visée humaine et sociale des services sociaux rend cet exercice complexe. Les effets de l’aide aux individus sont non seulement difficilement quantifiables mais également souvent imperceptibles à court terme. La mesure de résultats (outcomes) apparaît cependant comme un impératif pour que les investisseurs privés puissent être rémunérés et donc que les OIS fonctionnent. Ceci implique des approximations pour définir des « indicateurs de résultats » qui :
– aient un sens vis-à-vis des outcomes visés. La question politique des objectifs se pose ainsi avant celle des indicateurs eux-mêmes. Quel est, par exemple, l’objectif de l’aide aux SDF : répondre aux urgences, fournir un logement, accompagner vers l’emploi, etc. ?
– permettent un pilotage de l’action sociale par le fournisseur de services. Ce dernier est encouragé à suivre les indicateurs sur lesquels se fonde la rémunération de l’OIS et à prendre le cas échéant des mesures correctives.
– reflètent une performance sur un horizon temporel partagé. Les OIS présentent différentes échéances (de 20 mois à 5 ans) et leur rémunération, des périodicités variées (mensuelle par exemple pour une campagne de vaccination). Le calendrier doit laisser un terme raisonnable au regard de l’action sociale menée.
– soient « monétisables » en fonction d’une estimation des économies réalisées par l’État sur l’action sociale (voir par exemple le tableau 1). Ainsi, l’État britannique évalue-t-il à 800£ l’amélioration du comportement d’un élève à l’école.
Tableau 1 : exemples de rémunérations. Action « éducation et emploi des jeunes en difficulté ». État britannique en 2012, 2014 et mi 2015. Centre for Social Impact Bonds
Coûts de coordination, primes de risque, incertitudes sur la pertinence des indicateurs et leur monétisation… interrogent donc l’efficacité socio-économique réelle des OIS. Au-delà de telles considérations, des questions politiques liées au rôle de l’État et à la place de l’humain dans nos sociétés se posent.
La complexité de la monétisation des outcomes est telle que l’on peut s’interroger sur son caractère potentiellement fictif et sur le contrat socio-économique implicitement véhiculé : les montants négociés ne correspondent-ils pas à des niveaux de rentabilité attendus plus qu’aux économies réalisées par l’État ? Ce dernier ne serait-il pas en outre incité à alléger le contrôle pour assurer le renouvellement du financement privé et une prise en charge pérenne des actions sociales concernées. Enfin, l’impératif d’objectifs mesurables n’oriente-t-il pas les financements exclusivement vers des actions aux « impacts » mesurables ? Dans ces conditions, comment prévenir les dérives pouvant conduire à une action sociale dégradée ?
Figure 2 : comment investir dans le social pour que ce soit rentable ? (H. Khlif 2016)
Plus encore, le besoin de rentabilité des OIS est également susceptible de transformer en profondeur les mentalités et le sens des obligations : les acteurs économiques pensant légitime le profit réalisé sur des activités à vocation sociale, les gouvernants assumant le désengagement de l’État et les associations se focalisant sur des questions d’efficacité. Ainsi, est-il possible d’imaginer que l’évaluation de la performance ne conduise ces dernières à choisir des causes aux résultats mesurables et peu risqués. Enfin, lorsque la profitabilité de l’action sociale est considérée comme une manière de faire le bien, quelle est la place de la philanthropie traditionnelle ? Comment maintenir les valeurs collectives d’humanisme, d’altruisme et de partage si même le débat démocratique sur les priorités sociales est privatisé.
En définitive, si les OIS peuvent être mises en question quant à leur efficacité économique, comme innovations sociales, elles nous interrogent sur le modèle de société proposé. Les questions éthiques sont complexes, mais méritent d’être mises au cœur des débats lorsqu’il s’agit de repenser la place de l’humain dans une société et lorsque les rôles respectifs de l’État, du marché, des associations et des individus sont modifiés. Les OIS ne doivent donc pas être considérées comme une solution technique, innovante et sans risque permettant seulement de résoudre les difficultés financières du moment.
La version originale de cette article a été publié sur The Conversation.
Par Olivier Prades
En raison du problème endémique du chômage, la majorité des réformes successives du droit du travail a été engagée avec l’ambition de créer de l’emploi. Créer des aides à l’emploi, jouer sur la durée du travail, diminuer les charges sociales, réduire la protection du salarié, faciliter le licenciement économique n’ont pas encore produit les effets escomptés.
Le projet de loi travail dont une des finalités est une fois encore de relancer l’emploi, utilise les mêmes vieilles recettes pour réformer l’existant sans prendre en compte, sinon à la marge, le développement ou l’émergence de nouvelles organisations du travail liées au développement d’activités économiques issues du numérique qui remettent en question la notion de travail et semblent être un vivier d’emploi.
Malgré le scepticisme lié aux déboires de l’économie « ubérisée », le rapport Mc Kinsey (« Accélérer la mutation numérique des entreprise : un gisement de croissance et de compétitivité pour la France ») constate qu’en 2013 la valeur ajoutée du numérique ramenée au PIB français s’est élevée à 5,5%, soit 113 milliards d’euros. En termes d’emplois directs, cela correspond à 3,3% de la population active et de manière quasi-équivalente à des emplois indirects ou induits.
[su_pullquote align=”right”]Par David Le Bris[/su_pullquote]
Dès 1372, des centaines d’actionnaires partagent la propriété de moulins sur la Garonne. Ils trouvent les solutions pour prendre les grandes décisions en commun, déléguer et surveiller des dirigeants grâce à des administrateurs, auditeurs… De plus, les cours de ces actions médiévales sont cohérents avec les modèles financiers contemporains.
Les prestigieuses presses universitaires de Yale viennent de publier The Origins of Corporations. The Mills of Toulouse in the Middle Ages, traduction d’une thèse en histoire du droit, soutenue en 1952 par Germain Sicard (1928-2016). Une thèse française traduite en anglais est une chose rare, 60 ans après sa soutenance, c’est tout à fait exceptionnel ! Il faut dire que cette thèse bouscule notre compréhension de l’histoire économique.
C’est la Hollande, voire l’Angleterre qui s’attribuent, non sans fierté, la paternité des premières véritables sociétés par actions avec les diverses compagnies des Indes apparues vers 1600. Mais Germain Sicard expose magistralement comment des sociétés par actions parfaitement modernes se sont formées trois siècles auparavant pour gérer une activité privée : des moulins à blé sur la Garonne à Toulouse.
Germain Sicard détaille la genèse de deux authentiques sociétés médiévales. Fidèle au droit romain, le Midi ne connaît pas le droit d’aînesse, ce qui aboutit à la création de structures juridiques appelées pariage permettant la propriété collective d’un bien. Initiée pour permettre des héritages égalitaires, la technique du pariage est ensuite utilisée dans de multiples contextes. Le plus fameux est celui d’Andorre, co-administré par le comte de Foix, dont le président de la République française est l’héritier. A Toulouse, des pariages se forment dès le XIIème siècle pour gérer des moulins sur la Garonne.
Des centaines de propriétaires (pariers) possèdent des parts (uchaux) dans différents moulins situés à deux emplacements dans la ville. Progressivement les dépenses communes aux moulins d’un emplacement (chaussée barrant le fleuve, procès) deviennent prépondérantes, incitant à modifier les associations initiales. Dès 1194, une assurance mutuelle est signée entre les propriétaires pour reconstruire à frais communs une éventuelle destruction, puis différentes formes d’associations temporaires sont expérimentées. En 1372, une société, l’Honor del molis del Bazacle devient définitive ; sa charte de fondation de 3 mètres de long est toujours conservée aux archives. Après des siècles de meunerie, l’entreprise se convertit en 1888 dans la production d’électricité. Elle sera cotée à la bourse de Toulouse puis de Paris jusqu’à sa nationalisation en 1946 lors de la création d’EDF.
Avec Sébastien Pouget (TSE) et Will Goetzmann (Yale), nous avons repris cet extraordinaire sujet d’étude en explorant les archives au-delà du moyen-âge. Dans une étude consacrée à leur gouvernance, nous montrons comment ces moulins ont résolu les difficultés inhérentes à la séparation entre propriété et contrôle effectif d’une entreprise. Les problèmes de gouvernance sont centraux pour ces moulins ; meliori gubernatione est le premier motif invoqué à la constitution du Bazacle en 1372 ! Dès l’origine, les actionnaires bénéficient d’une responsabilité limitée. En 1417 puis 1587, des statuts détaillent la délégation du management par les actionnaires à différents agents, dont un CEO appelé Conterôlle qui dispose du contrôle effectif de l’entreprise, et un trésorier indépendant de ce dernier dont les comptes sont audités par des auditeurs indépendants. L’aléa moral¹ provenant de la délégation est limité, grâce à l’interdiction pour l’entreprise d’accumuler des réserves financières et à l’utilisation d’incitations explicites (une fraction des profits est versée aux employés) et implicites (les employés doivent prêter serment).
De plus, les actionnaires exercent une surveillance attentive des activités. Une assemblée générale (Cosselh general dels senhors paries am gran deliberacio) se tient chaque année pour prendre les grandes décisions, à la majorité des actionnaires présents. Dès 1390, huit actionnaires sont désignés chaque année pour composer un conseil d’administration supervisant l’activité de l’entreprise et deux autres pour auditer les comptes. Enfin, des investisseurs institutionnels formalisent leur surveillance, comme le collège universitaire de Mirepoix qui prévoit dans son statut de 1423 la manière de suivre ses investissements dans les uchaux toulousains.
Les solutions de gouvernance développées par ces moulins depuis le Moyen-Age sont donc très proches de celles observées dans les sociétés par actions contemporaines. Ces solutions ont été obtenues par de simples contrats privés, alors que les compagnies des Indes verront le jour grâce à des privilèges publics. Cela démontre que la société par actions est adaptée à différents contextes économiques et peut émerger dès lors que certaines conditions institutionnelles sont remplies, à commencer par des droits bien établis.
Ainsi, contrairement à une idée reçue, nous montrons que les droits de propriété sont parfaitement défendus depuis le 12ème siècle à Toulouse. Les actionnaires, qu’ils soient simple marchand, institution religieuse ou même roi de France, sont traités sur un strict pied d’égalité. Ils résistent à différentes tentatives d’expropriation qui ne réussiront finalement qu’au XXème siècle. Les outils conceptuels permettant le développement de la société par actions sont donc présents dans certaines parties d’Europe occidentale depuis le Moyen-Age. Cela bouscule la généalogie largement admise depuis les travaux de North d’une révolution institutionnelle en Europe du Nord qui aurait abouti à la Révolution Industrielle. La société par actions existait dès le Moyen-Age mais elle n’a pas entraîné un décollage économique décisif.
Pour un second travail, nous avons collecté les cours et de dividendes du moulin du Bazacle réunissant des séries quasiment complètes de 1530 à 1946. Les premiers résultats montrent un taux de dividende de 5 % avec des gains en capital proches de zéro sur la longue durée, malgré une grande volatilité des cours des actions conséquence de l’instabilité des prix du blé mais aussi des destructions provoquées par les crues. La valeur réelle du dividende observée dans l’entre-deux-guerres est sensiblement identique à celle perçue par un actionnaire au début du XVIème siècle. Nous démontrons également que les cours sont cohérents avec les anticipations de flux futurs, validant ainsi la théorie de la valeur actuelle : théorie financière fondamentale mais rarement vérifiée empiriquement. Ces flux futurs sont actualisés à un taux qui varie de concert avec des variables macro-économiques et climatologiques, telles que la température estivale (mesurée approximativement grâce aux dates des vendanges en Bourgogne). Malgré le risque de désastre, les investisseurs n’ont pas obtenu une rentabilité excessivement élevée par rapport au risque supporté ce qui contraste avec les observations contemporaines. Ces observations montrent que dans l’histoire récente, notamment américaine, les actions semblent offrir une rentabilité anormalement élevée par rapport aux autres actifs financiers (equity premium puzzle).
[su_note note_color=”#f8f8f8″]Par David Le Bris et ses publications : Le Bris D., Goetzmann W. and Pouget S. (2014) Testing Asset Pricing Theory on Six Hundred Years of Stock Returns: Prices and Dividends for the Bazacle Company from 1372 to 1946, NBER Working Paper, wp. 20199 ; Le Bris D., Goetzmann W. and Pouget S. (2015) The Development of Corporate Governance in Toulouse, NBER Working Paper, 2014, wp. 21335 ; Sicard G. (2015) The Origins of Corporations. New Haven, Yale University Press. [/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Ces moulins montrent que la société par actions est une solution efficace dans des contextes très variés limitant l’attrait pour d’autres formes de capitalismes. Nos recherches permettent aussi de distinguer les caractéristiques institutionnelles qui rendent possible cette forme de coopération qu’est la société par actions. Offrir des conditions favorables au développement des sociétés par actions dans les pays ou les secteurs qui en sont dépourvus serait source de prospérité. Ils montrent aussi que les hommes sont capables, y compris au moyen-âge, de donner un prix cohérent aux actifs financiers. Cela permet de penser que les exubérances parfois constatées sur les marchés actuels sont attribuables à des facteurs autres qu’une irrationalité des agents parfois envisagée. [/su_box]
[su_spoiler title=”Méthodologie”]Pour la première étude, nous avons parcouru les très riches archives des moulins à la lumière de la compréhension contemporaine de la gouvernance d’entreprise. Pour chaque problématique fondamentale de gouvernance, la solution développée dans les moulins est identifiée, analysée et comparée aux pratiques contemporaines apportant une observation précieuse car totalement indépendante de ce qui est observable aujourd’hui. Pour l’étude quantitative, un dépouillement exhaustif des archives comptables et financières a permis de construire des séries comparables de cours et dividendes. Un modèle d’ « asset pricing » idoine est ensuite développé puis testé en faisant des hypothèses sur le comportement des dividendes et la compréhension que pouvait en avoir les investisseurs de l’époque.[/su_spoiler]
[su_spoiler title=”Définition”]L’aléa moral est le risque que l’agent agisse en fonction de son intérêt personnel.[/su_spoiler]
[su_pullquote align=”right”]Par Delphine Gibassier[/su_pullquote]
Depuis une quinzaine d’années, nombre d’entreprises – répondant aux incitations du GHG Protocol, du CDP et d’autres classements – se sont engagées à mettre en place une comptabilité carbone et à se fixer des objectifs de réduction des émissions de gaz à effet de serre (GES) liées à leurs activités.
Selon le CDP, quelque 500 entreprises ont pris des « engagements sérieux concernant leur action sur le changement climatique par le biais de l’initiative « We Mean Business ».
De leur côté, des ONG ont constitué des groupes d’entreprises, comme le WWF Climate Savers, tandis que certaines agences nationales de l’environnement, dont celle des États-Unis, ont initié d’autres groupes tels que les Climate Leaders.
Lors de la Conférence de Paris sur le climat fin 2015, les médias traditionnels et sociaux ont relayé une augmentation massive de l’engagement des entreprises dans la lutte contre le réchauffement climatique.
Des multinationales ont fait des annonces tonitruantes, s’engageant à décarboner leur modèle économique, se fixant des objectifs « basés sur la science », soutenant la mise en place d’une réglementation des États, prenant des engagements ambitieux pour passer à l’énergie 100 % renouvelable, réclamant l’application de la neutralité carbone ou encore appelant au désinvestissement dans les énergies fossiles.
Le PDG de Marks and Spencer n’a pas hésité à qualifier la COP21 de « tournant ». Plusieurs mois après la Conférence de Paris, qu’en est-il de ces promesses ?
Les entreprises les plus audacieuses se sont engagées à décarboner intégralement leur modèle économique. Une démarche qui passe par l’instauration d’objectifs ambitieux pour réduire les émissions de gaz à effets de serre de 80 à 100 %, ou se procurer 100 % de l’énergie nécessaire à partir de sources renouvelables. En décembre 2015, 87 entreprises faisaient partie de ce mouvement de décarbonation.
• La neutralité carbone
Populaire au début des années 2000, la neutralité carbone s’est rapidement vue associée à du greenwashing. Difficile en effet d’évaluer si les entreprises avaient vraiment fait le maximum pour réduire leurs émissions ; les crédits carbone ont d’autre part été pointés du doigt pour leur manque de crédibilité.
Plusieurs annonces de neutralité carbone ont d’ailleurs fait l’objet de mesure de retrait : ce fut le cas de Dell qui avait promis d’être neutre en carbone en 2008 et s’est désengagé en 2011.
Ce mouvement en faveur de la neutralité carbone est réapparu avec des initiatives de plus petite envergure : à la conférence Climate Action 2016, Paul Polman a ainsi promis de rendre neutre en carbone sa filiale Ben&Jerry ; Danone, après avoir fait d’Evian une marque neutre en 2012 pour l’année 2011, a indiqué vouloir rééditer cet effort.
• Les renouvelables
En décembre 2015, l’initiative RE100 du Climate Group a réussi à obtenir l’engagement de 53 entreprises pour un objectif de 100 % d’électricité renouvelable. Aujourd’hui, 58 entreprises figurent sur cette liste, dont Coca-Cola qui s’est récemment exprimé à ce propos sur les réseaux sociaux.
• S’appuyer sur la recherche
Lors de la COP21, le groupe s’engageant à se fixer des objectifs basés sur la science comprenait 114 entreprises. Elles sont aujourd’hui 160. Les objectifs scientifiques sont essentiels en ce qu’« ils permettent aux entreprises de chercher à les atteindre en alignant leurs réductions de GES sur des budgets d’émissions globales générées par le modèle climatique », souligne le groupe We Mean Business.
• Donner un prix au carbone
89 multinationales ont rejoint la Carbon Pricing Leadership Coalition. Né lors de la COP 21, cet ensemble a tenu sa première réunion en avril 2016, appelant à une expansion des politiques de prix du carbone, pour passer d’un taux de couverture de 12 % des émissions mondiales de gaz à effet de serre aujourd’hui à 25 % en 2020, puis de doubler à nouveau ce chiffre pour passer un à taux de couverture de 50 % dans les dix ans.
Près de 40 gouvernements et 23 villes, États ou régions ont déjà mis un prix sur la pollution carbone. Selon le CDP, plus de 437 entreprises utilisent ainsi un prix interne du carbone ; et ce sont plus de 500 entreprises qui prévoient de les rejoindre dans les deux années à venir.
Cependant, les signataires de ces différentes initiatives constituent bien souvent un groupe d’acteurs commun s’engageant dans de multiples directions.
C’est sans doute le mouvement le plus emblématique lié aux affaires et au changement climatique. Le 2 décembre 2015, en pleine COP21, plus de 500 institutions, représentant selon Fossil Free plus de 3,4 trillions de dollars d’actifs, disaient vouloir retirer leur argent des énergies fossiles.
Encouragé par des ONG telles que 350.org et des associations étudiantes, ce mouvement touche aussi certaines universités anglo-saxonnes ayant pour investisseurs des fonds de pension. L’université d’Ottawa a ainsi accepté d’en finir avec les investissements dans les énergies fossiles, le président de l’université du Massachusetts a indiqué vouloir prendre des mesures similaires et l’université de Yale a partiellement cédé ses investissements dans ce secteur en avril.
Le GPFG, qui gère des fonds de 828 milliards de dollars et poursuit une stratégie de désinvestissement basée sur la gestion des risques, a indiqué dans son dernier rapport annuel s’être séparé d’une nouvelle compagnie de charbon. Un engagement que l’on retrouve du côté du fonds Rockfeller.
Toutefois, selon un rapport publié par le Projet de divulgation des propriétaires d’actifs (Asset Owners Disclosure Project, AODP), c’est moins d’un cinquième des principaux investisseurs – soit 97 investisseurs ayant en gestion 9,4 trillions de dollars en actifs – qui sont réellement en train de prendre des mesures concrètes pour atténuer les conséquences des changements climatiques.
Un autre pas en arrière, atténuant la portée de ce mouvement, est venu de l’Université de Stanford qui a rejeté une demande de désinvestir les 22,2 milliards de dollars de participations qu’elle détient dans des sociétés pétrolières et gazières. Harvard a affiché le même refus.
La COP22 doit devenir la COP de l’action – et de la transformation des engagements. Les entreprises devront donc prouver que ceux-ci se sont concrétisés et, surtout, qu’ils se sont diffusés à tous les secteurs et à travers les chaînes de valeur. Même si la conversion des promesses en action s’inscrit dans le moyen et le long terme, le suivi annuel de la montée en puissance de l’engagement des entreprises est un axe essentiel de la réussite de l’Accord de Paris.
Delphine Gibassier, Professeur de contrôle de gestion et de comptabilité environnementale, Toulouse Business School
La version originale de cet article a été publiée sur The Conversation.
[su_pullquote align=”right”]Par Wadid Lamine [/su_pullquote]
Quelle dynamique sous-tend la formation du réseau du jeune entrepreneur ? Réseau dont dépend le succès de son projet. C’est un processus évolutif qui s’appuie sur ses compétences relationnelles et sur la mobilisation d’objets matériels comme les prototypes, plans d’affaires, présentations, etc. Sa persévérance et l’association des dimensions humaine et matérielle du projet sont essentielles. Pour le démontrer, appuyons-nous sur la théorie de « l’acteur-réseau ».
Le succès des start-ups dépend bien sûr des structures et des mesures d’accompagnement (les incubateurs notamment) d’ailleurs très prisées des entrepreneurs. Mais il relève aussi de la manière dont le porteur de projet interagit avec son environnement dans le temps. En fait, la création d’entreprise innovante suit un processus plus complexe qu’il n’y parait. La théorie de l’acteur-réseau permet de décrire dans toute sa dynamique cette situation complexe et changeante.
Cette théorie de l’acteur-réseau a été élaborée dans les années 1980 par Madeleine Akrich, Michel Callon, Bruno Latour et d’autres sociologues de Mines Paris Tech.). Selon cette approche, la réussite d’une innovation n’est pas seulement liée au génie d’un individu et à la valeur intrinsèque du produit ou du service proposé. Elle est également le résultat des interactions entre une association d’acteurs humains et non humains (comme par exemple les vidéos et les prototypes) et le couple individu/projet. Tout acteur est un réseau à lui tout seul. Si un élément du réseau évolue, c’est tout le réseau qui en subit les effets.
La théorie de l’acteur-réseau permet d’étudier la dynamique du système entrepreneurial en accordant la même importance à ses deux dimensions : la dimension matérielle – le projet – et la dimension sociale – l’individu. Selon cette théorie, toute distinction entre faits de nature (Coquilles Saint-Jacques) et faits de société (Marins pêcheurs dans la Baie de Saint-Brieuc) doit être supprimée. Ajoutons que l’exploration du rôle de l’objet non humain durant les premières phases du processus est à prendre en compte. Les éléments présentés par les porteurs de projet (rapports, prototypes, plans d’affaires…) permettent d’en prouver la faisabilité et de tisser de nouveaux liens ou de les renforcer. C’est d’autant plus vrai pour les créateurs d’entreprises innovantes qui font face à l’incertitude, au manque de ressources et à un processus d’apprentissage où alternent essais et erreurs.
Toutes ces difficultés sont palliées en partie par la constitution d’un réseau qui évolue pour s’adapter à une situation entrepreneuriale changeante. À chaque étape du processus, un certain type d’acteur ou d’objet non humain est mobilisé pour répondre à un besoin particulier : obtenir par exemple de nouvelles ressources (contacts, compétences, opportunités…). Car, comme le souligne Alain Fayolle, professeur en entrepreneuriat, l’entrepreneur est en gestation et le projet seulement au stade de la conception. Il peut devenir une entreprise stable et équilibrée comme il peut s’effondrer à tout moment.
Réussir à construire un réseau nécessite certaines compétences sociales, notamment pour les jeunes qui ont peu d’expérience et ne connaissent ni leur environnement d’affaires ni ses acteurs. Par exemple, pour décrocher un rendez-vous dans une grande entreprise, il faut faire preuve de courage social, puis de force de persuasion pour défendre une idée originale et résister aux oppositions.
Le projet de nano-satellites NovaNano illustre le rôle de l’objet non humain. Porté par deux étudiants en école d’ingénieur, jeunes, sans réseau, ce projet concernait un domaine très sensible réservé aux grands acteurs du domaine spatial. Ces étudiants souhaitaient accéder aux ressources de ces grandes entreprises (lanceurs de satellites, matériaux, réseaux, autorisations…). Les premières rencontres ont été difficiles. Mais ils ont su convaincre leurs interlocuteurs en se basant sur des études scientifiques pointues et des prototypes qui montraient la faisabilité, la pertinence et la viabilité de leur projet. Couronné de succès, NovaNano a reçu le Prix de l’Innovation 2010 attribué par le ministère français de l’Enseignement supérieur et de la Recherche ainsi que le soutien financier d’OSEO et de la Chambre de Commerce et de l’Industrie de Lyon.
Comme pour d’autres projets de même nature, quatre rôles clés de l’objet non humain ont été mis en évidence : – La représentation > l’objet matériel reflète les intentions et les compétences de l’entrepreneur. – La traduction > un prototype ou un plan d’affaires traduit les évolutions de l’intention de départ. – La structuration > les versions successives de l’objet réduisent l’incertitude et montrent l’accroissement des compétences du porteur de projet. – L’accélération > l’objet matériel joue un rôle catalyseur sur la formation du réseau de l’entrepreneur.
L’exemple du projet NovaNano montre que l’entreprise en création est toujours le résultat provisoire d’actions en cours. Le concept initial a subi une série de transformations, de l’énoncé du projet à sa formalisation sous forme de présentations puis de prototypes, pour revenir à une nouvelle version de l’énoncé, etc. La trajectoire entrepreneuriale se construit à l’aide d’acteurs humains et d’artefacts techniques qui tissent inlassablement des liens entre eux. Cette approche ouvre une nouvelle voie à l’entrepreneur naissant : mieux conduire son projet de création d’entreprise en optimisant la création de son réseau et mieux mobiliser les objets non humains susceptibles de renforcer sa légitimité.
[su_note note_color=”#f8f8f8″]D’après mes publications : « Les réseaux : facteurs clés de succès de l’entrepreneur » publié dans le magazine Tbsearch, n°7, décembre 2014 ; « Quel apport de la théorie de l’acteur-réseau pour appréhender la dynamique de construction du réseau entrepreneurial ? » co-écrit avec Alain Fayolle (EMLYON Business School) et Hela Chebbi (EDC-Paris Business School), publié dans Management International, mai 2014 ; « How do social skills enable nascent entrepreneurs to enact perseverance strategies in the face of challenges ? A comparative case study of success and failure », co-écrit avec Sarfraz Mian (State University of New York) et Alain Fayolle, publié dans International Journal of Entrepreneurial Behaviour & Research, septembre 2014.[/su_note]
[su_spoiler title=”Méthodologie”]Nous avons adopté une méthodologie qualitative longitudinale pour suivre les dynamiques de construction du réseau entrepreneurial de six projets de création d’entreprises innovantes sur une période de deux ans. Nous avons mobilisé la théorie de l’acteur-réseau pour guider leur recherche et avons accordé une attention particulière au rôle des objets matériels dans le processus de formation et d’élargissement du réseau de l’entrepreneur.[/su_spoiler]
[su_pullquote align=”right”]Par Victor Dos Santos Paulino [/su_pullquote]
L’innovation est un des thèmes majeurs du management. La capacité à innover est considérée comme déterminante dans la réussite des entreprises. Pourtant, en s’intéressant à l’industrie spatiale, on peut constater que la prudence en matière d’innovation peut être une stratégie gagnante.
Il est communément admis que l’adoption rapide de nouvelles technologies améliore la performance et la survie des entreprises. Joseph Schumpeter démontrait déjà au début du 20e siècle que l’innovation favorisait la réussite industrielle. D’autres économistes comme Joel Mokyr dans les années 90, lui ont emboité le pas tout en expliquant l’inertie (l’adoption lente des nou¬velles technologies) par l’attitude phobique et irrationnelle des managers. A ce titre, l’industrie spatiale est un exemple intéressant et même paradoxal : ce secteur hautement technologique est perçu comme un symbole d’innovation, alors que la prudence y est considérée comme nécessaire. C’est une exigence des opérateurs de satellites de télécommunications, notamment, pour lesquels la fiabilité prime sur la nouveauté, facteur de risque.
L’innovation est un phénomène complexe, qui ne rime pas toujours avec succès, progrès et profits. Il a par exemple été démontré que plus de 60 % des innovations débouchaient sur des échecs.. Il est également légitime que de nombreuses entreprises freinent l’adoption d’innovations dans plusieurs cas : par exemple lorsque celles-ci rendent obsolètes ou cannibalisent les produits existants ou lorsque les coûts afférents se révèlent trop importants par rapport aux bénéfices attendus. Ces facteurs expliqueraient-ils la stratégie d’inertie observée dans l’industrie spatiale ?
Par nature, l’utilisation par l’industrie spatiale d’une nouvelle technologie génère un risque : le comportement d’un composant sur terre, même dans des conditions de tests qui simulent l’espace, ne prédit pas précisément son fonctionnement en vol. Il peut être parfait ou défaillant, personne ne le sait avec certitude ! Conséquence : les constructeurs de satellites tendent à privilégier une stratégie d’inertie qui n’intègre les changements technologiques que de façon extrême¬ment prudente. Les innovations mises en œuvre sont celles qui ont fait leurs preuves. Le coût de l’échec rend les constructeurs et leurs clients prudents.
La prudence caractérise particulièrement le secteur des télécommunications spatiales car la fiabilité des satellites est un avantage concurrentiel majeur. Pour obtenir les niveaux de fiabilité les plus élevés, les industriels ont mis en place des organisations et des processus parfaitement rodés. C’est pourquoi le cycle de conception-développement-fabrication de satellites est organisé – et doit continuer à le faire – sur le principe de phases successives : Phase 0 > analyse de la mission ; Phase A > étude de faisabilité ; Phase B > définition préliminaire ; Phase C > définition détaillée ; Phase D > fabrication et tests ; Phase E > exploitation ; Phase F > retrait de service. Si cette méthodologie favorise le maintien de la fiabilité à haut niveau, elle génère, en contrepartie, une forte inertie structurelle.
Ce besoin de fiabilité et de stabilité conduit donc les industriels du spatial à adopter les technologies de l’information et de la communication qui impactent le moins l’organisation. Mais aussi, pour ce qui concerne les télécommunications spatiales, à ne pas remettre en cause des choix technologiques qui, tout en favorisant la fiabilité, ne permettent pas de réduire les coûts de production. Serge Potteck, spécialiste de la conduite de projets spatiaux, indique, par exemple, que pour transmettre un signal, les ingénieurs préfèrent concevoir des antennes de 60 cm de diamètre pour se prémunir contre un éventuel dysfonctionnement alors qu’une antenne de 55 cm, moins chère, suffirait.
Cette analyse doit toutefois être affinée en prenant en compte les différents segments qui composent le secteur spatial. Ils peuvent être classés en trois catégories. Le premier groupe est constitué des satellites de télécommunications et des fusées (les lanceurs). Dans ce cas, le coût d’un échec serait très élevé. Il pénaliserait l’industriel qui a fabriqué un satellite inopérant, l’entreprise qui commercialise et exploite les lanceurs, mais aussi tous les acteurs impliqués dans le business plan. Un échec peut retarder de plusieurs années la commercialisation de nouveaux services de télécommunications par satellite.
Dans le deuxième groupe se trouvent les engins spatiaux à objectif scientifique ou de démonstration et, toujours, les fusées utilisées pour les lancer. Les Etats ou les agences spatiales qui les commandent ne sont pas assujettis à de réels critères de rentabilité. Ici, les ruptures technologiques et les risques associés font partie du projet.
Le dernier groupe est à la frontière de l’industrie spatiale et d’autres industries. Il s’agit, par exemple, des outils pour l’exploitation des capacités de géolocalisation offertes par la constellation Galileo ou la diffusion de contenus numériques. Dans ce segment, la stabilité est vue comme préjudiciable à la naissance de nouveaux marchés.
Si le contexte particulier du secteur spatial freine sa capacité à expérimenter, il n’em-pêche pas totalement l’innovation. La stratégie d’inertie n’est en effet qu’apparente. Ce que l’on qualifie d’« inertie » est, en fait, une réelle dynamique d’innovation : toute nouvelle technologie est étudiée scrupuleusement avant d’être testée ou non sur un nouvel engin puis, éventuellement, intégrée. Ainsi cette stratégie peut-elle, dans certains cas, assu¬rer la survie d’un marché. La considérer comme un défaut à combattre serait donc une erreur !
L’industrie spatiale innoverait sans doute peu si elle avait pour seuls clients les opérateurs de satellites commerciaux. Cependant, à l’opposé, les agences spatiales sont prêtes à financer des engins expérimentaux en prenant les risques financiers d’éventuels échecs. C’est grâce à elles que les constructeurs de satellites commerciaux valident des choix technologiques qui leur sont proposés une fois qu’ils ont fait leurs preuves.
[su_note note_color=”#f8f8f8″]Par Victor Dos Santos Paulino et ses publications « Innovation : quand la prudence est la bonne stratégie » publié dans le magazine TBSearch, n°6, juillet 2014, et « Le paradoxe du retard de l’industrie spatiale dans ses formes organisationnelles et dans l’usage des TIC » publié dans Gérer et comprendre, décembre 2006, n°86. [/su_note]
[su_spoiler title=”Méthodologie”]L’analyse du paradoxe organisationnel et technologique qui caractérise l’industrie spatiale est fondée sur plusieurs catégories d’informations : la littérature théorique disponible (Hannan et Freeman, 1984 ; Jeantet, Tiger, Vinck et Tichkiewitch, 1996), des travaux effectués par les ingénieurs du secteur (Potteck, 1999), et des observations de terrain faites entre 2003 et 2005 chez un des principaux maîtres d’œuvre européens dans la fabrication de satellites et sondes spatiales.[/su_spoiler]
[su_pullquote align=”right”]Par Lourdes Pérez [/su_pullquote]
Contrairement à ce qui est généralement admis, les petites entreprises ne sont pas condamnées à être désavantagées dans leurs relations avec les grandes. Elles ont même beaucoup à y gagner, à condition de trouver un mode de fonctionnement pertinent qui leur évite de se trouver en concurrence sur le partage de la valeur créée.
A quelles conditions un partenariat entre deux entreprises bénéficie-t-il pleinement et équitablement aux deux partenaires engagés ? Jusqu’à présent, il existe sur cette question une forme de consensus : il faut avant tout que le partenariat réunisse deux entreprises de taille équivalente. Le bénéfice du partenariat (développement de nouveaux produits, conquête de nouveaux marchés, création de revenus supplémentaires) étant perçu comme un gâteau à partager, sa répartition se ferait en fonction du poids respectif et des apports de chaque partenaire. Dans cette optique, un partenariat asymétrique liant une grande entreprise et une PME aurait toutes les chances de se faire au détriment de la seconde. La littérature insiste d’ailleurs en général surtout sur les risques pour la PME, qui manque d’armes pour lutter dans cette relation de coopétition (coopération-compétition).
A rebours de cette idée couramment admise, notre étude montre au contraire que la relation asymétrique constitue une opportunité d’innovation pour les petites entreprises. Elle est même quasiment un passage obligé dans le contexte d’économie mondialisée, ultra compétitive, où c’est l’isolement qui se révèle le plus dangereux. Les exemples ne manquent pas, en particulier dans les secteurs à dominante technologique de partenariats asymétriques qui se sont montrés tout aussi fructueux pour le « petit » que pour le « grand ». Dans ces cas, nombreux, les partenaires ont su créer une complémentarité qui, au final, est tout aussi importante que la similarité.
Il ne s’agit pas de nier les risques d’échec. Ils existent, mais sont loin d’être insurmontables, à condition de mettre en œuvre une stratégie permettant de répondre aux défis de ce type de partenariat : d’abord les difficultés de communication liées aux différences d’échelle entre les deux structures (le patron de la PME a rarement un accès direct au PDG de la grande entreprise) ; ensuite les différences dans l’organisation et les méthodes de travail.
Si la petite entreprise s’engage dans la relation en respectant, de manière systématique, un certain nombre de règles fondamentales, elle met toutes les chances de son côté pour en tirer profit. Pour parvenir à cette conclusion, nous avons analysé un partenariat réussi entre une petite entreprise espagnole de commercialisation de fruits de mer qui cherchait à augmenter la durée de conservation de ses coquillages et une grande entreprise italienne du secteur de l’énergie. A partir de cette étude de cas, nous avons élaboré un modèle qui résume en trois étapes clés l’approche que devrait suivre une petite entreprise pour éviter les chausse-trappes généralement associés aux partenariats asymétriques.
La première étape est la sélection d’un nombre réduit de partenaires. Pour des raisons de temps, d’organisation, de ressources, une PME n’a pas les moyens de s’investir sérieusement dans de multiples partenariats avec de grandes entreprises. Elle a donc tout intérêt à bâtir une alliance durable avec un partenaire dont les objectifs stratégiques sont complémentaires des siens. Dans notre cas, les motivations des entreprises pour entrer en relation étaient bien distinctes : là où PME cherchait une solution technologique, la grande entreprise voyait l’opportunité d’entrer sur le marché espagnol, dans un secteur où elle n’était pas présente. Il n’était donc pas question de partager les bénéfices du partenariat, puisqu’ils n’étaient pas les mêmes pour les partenaires.
La seconde étape est la construction d’une relation forte, un véritable capital relationnel qui contrebalancer le déséquilibre entre les deux structures. Cela nécessite un fort investissement de la part de la PME, qui doit identifier un « champion » au sein de l’entreprise, c’est-à-dire un interlocuteur privilégié, suffisamment haut placé dans l’organigramme, une personnalité écoutée à tous les niveaux de l’entreprise, capable de défendre le projet et de le faire avancer en dépit des résistances et des blocages qui peuvent se présenter.
La troisième étape consiste à développer des propositions de valeur réciproques. Au lancement du partenariat, la PME et la grande entreprise poursuivent chacune des objectifs précis. Mais en entrant dans le vif du sujet, certains paraissent irréalisables, d’autres incompatibles, tandis que de nouveaux apparaissent. L’important ici est de trouver un juste équilibre entre opiniâtreté et flexibilité : savoir tenir fermement ses positions tout en tenant compte de son partenaire, des imprévus, quitte à repenser ses objectifs initiaux. Cela demande de l’écoute, de l’ouverture d’esprit, de connaître son partenaire, ses objectifs et ses motivations.
Le succès de cette stratégie montre bien qu’il n’y a pas de fatalité à ce que le partenariat asymétrique se fasse au dépens du plus petit. Dans notre cas, chaque partenaire a obtenu 100% de ce qu’il cherchait, parce qu’ils avaient des attentes qui n’étaient en rien concurrentes et parce qu’ils ont su construire ensemble leur compatibilité. Cette nouvelle perception de l’asymétrie dans un esprit coopératif, davantage que dans le rapport de forces, ouvre de nouvelles perspectives pour la compréhension et la gestion des relations entre partenaires inégaux.
[su_note note_color=”#f8f8f8″]Par Lourdes Pérez et l’article « Uneven partners: managing the power balance », Lourdes Pérez et Jesùs J. Cambra-Fierro, Journal of Business Strategy, 2015.[/su_note]
[su_spoiler title=”Méthodologie”] Lourdes Pérez et Jesùs J. Cambra-Fierro ont réalisé une étude de cas qualitative auprès de deux entreprises, une PME espagnole et une grande entreprise italienne, engagées dans un partenariat asymétrique. Les informations recueillies sont issues d’une revue documentaire (informations publiques, informations sectorielles, bases de données) et d’une revue de la littérature scientifique. Des entretiens avec plusieurs interlocuteurs qualifiés dans chaque entreprise, auxquels ont été soumis des questionnaires ouverts, ont permis de faire émerger les grands thèmes de l’étude et de construire une matrice. Les conclusions de l’étude sont le résultat du recoupement entre ces différentes sources.[/su_spoiler]
[su_pullquote align=”right”]Par Kévin Carillo[/su_pullquote]
Le développement rapide des technologies de communication collaboratives comme une alternative à l’usage des e-mails offre aux entreprises des opportunités de transformation en profondeur. Mais il nécessite des mesures d’accompagnement pour générer une véritable culture du partage des connaissances.
L’irruption dans les entreprises des technologies de communication collaboratives issues du web 2.0 est rapide et massive. Réseaux sociaux internes, vidéoconférences, blogs et microblogs, wikis, partage de documents : toujours plus nombreuses sont celles qui adoptent ces outils interconnectés ouvrant des perspectives de transformation en profondeur de leur organisation et des habitudes de travail de leurs salariés, avec l’espoir d’améliorer leur productivité et leurs performances. A l’organisation traditionnelle en silos, dans laquelle les différents départements, fonctions ou niveaux hiérarchiques fonctionnent de manière cloisonnée et dans une forme de compétition interne, se substitue ainsi peu à peu un nouveau modèle d’entreprise 2.0, plus ouvert, caractérisé par une collaboration accrue des salariés par-delà ces cadres rigides et par le partage de connaissances, dans une sorte de forum en lui-même créateur de connaissances.
Parallèlement à cette révolution organisationnelle, les outils collaboratifs sont de nature à apporter une solution efficace au problème devenu récurrent de la prolifération des e-mails. Révolutionnaire en son temps, unanimement adopté dans le monde du travail, cet outil est victime de son succès, au point que son usage excessif devient un frein sérieux à la productivité : les salariés en reçoivent des dizaines par jour, passent des heures à les lire, ne les ouvrent pas tous, en perdent, voient leurs messageries saturer… Au final, la communication se fait mal et la collaboration au sein de l’entreprise se trouve pénalisée, alors que certains types d’interaction qui ont lieu par e-mail sont plus adaptés à d’autres types de canaux. C’est le cas par exemple des échanges de nature conversationnelle ou des conversations au sein d’un groupe ou d’une communauté pour partager des connaissances ou générer des idées.
Cependant, la coopération et le partage des connaissances ne se décrètent pas. Il est très pertinent de mettre à la disposition des salariés des outils alternatifs, encore faut-il faire en sorte qu’ils se les approprient et en fassent bon usage. D’autant plus qu’il s’agit de technologies disruptives qui modifient radicalement les habitudes et travail et les modes de relation.
Nos recherches visent précisément à déterminer dans quelle mesure l’habitude d’utilisation des outils collaboratifs, c’est-à-dire leur usage courant et automatique, routinier, influent sur la propension des salariés à partager les connaissances, dans un contexte où ils ne disposent plus d’e-mail. Pour cela, le modèle théorique développé identifiait trois bénéfices perçus de l’usage d’une plateforme collaborative de communication : l’avantage relatif que cela procure (c’est utile pour mon travail), la compatibilité (cela a du sens par rapport à mes besoins, aux tâches que je dois accomplir dans mon travail, à la nature même de ma fonction) et la facilité d’utilisation. Il émettait l’hypothèse que ces bénéfices avaient un effet direct sur l’habitude d’utilisation ainsi que sur le fait de partager les connaissances. Nous postulions également que, l’habitude d’utilisation avait un effet catalyseur sur chacun de ces bénéfices perçus dans leur relation avec le partage des connaissances.
Pour mesurer la validité de ces différentes hypothèses, une étude de terrain a été réalisée auprès d’une société de services IT et de consulting. Les résultats sont les suivants : la perception d’un avantage relatif à utiliser les outils collaboratifs favorise fortement l’habitude d’utilisation et le partage de connaissances ; de même, la facilité d’utilisation a un impact sur l’habitude. En revanche, aucun lien direct n’a été confirmé entre la facilité d’utilisation et le partage des connaissances. L’étude n’a pas non plus établi d’effet immédiat de la compatibilité sur l’habitude et sur le partage des connaissances. Concernant l’interrogation principale de l’étude, c’est-à-dire le rôle joué par l’habitude, les résultats montrent qu’il est très important puisqu’elle amplifie l’impact de l’avantage relatif et de la compatibilité sur le partage des connaissances.
Cela confirme que la mise à disposition de technologies, aussi performantes soient-elles, ne suffit pas à changer les comportements, elle doit s’accompagner d’un sentiment d’habitude : plus les salariés seront à l’aise avec les outils collaboratifs, plus le partage des connaissances entrera dans leurs mœurs et plus ils adopteront les codes et les méthodes de l’entreprise 2.0.
Dès lors, tout l’enjeu pour le management est de générer ce sentiment d’habitude, et pour cela, les résultats de l’étude montrent qu’il dispose de deux leviers d’action privilégiés : faire percevoir aux salariés qu’utiliser une plateforme collaborative est non seulement réellement utile mais également facile. Cela suppose de mettre en œuvre un ensemble de mesures parfois très simples : communiquer, proposer des incitations, sous forme de jeu ou de concours, partager des expériences d’utilisateurs avancées, organiser des actions pédagogiques ciblées…
Au bout du compte, ce travail de recherche souligne une problématique classique lorsqu’on étudie les systèmes d’information : l’importance du facteur humain. Il ne suffit pas d’implanter une plateforme collaborative pour que l’entreprise devienne 2.0. L’acquisition d’une culture collaborative doit précéder la mise en œuvre des outils.
[su_note note_color=”#f8f8f8″]Par Kévin Carillo et l’article « Email-free collaboration: An exploratory study on the formation of new work habits among knowledge workers », Jean-Charles Pillet et Kévin Carillo, International Journal of Information Management, novembre 2015.[/su_note]
[su_spoiler title=”Méthodologie”] Jean-Charles Pillet et Kévin Carillo ont réalisé pour cette recherche une étude de cas quantitative. A partir de l’état de la recherche, les auteurs ont construit un modèle théorique basé sur l’idée que l’habitude modère la relation entre les bénéfices perçus de l’utilisation d’une plateforme collaborative et la capacité des salariés à partager des connaissances. Afin de mesurer la validité de 9 hypothèses, ils ont élaboré un questionnaire en 21 items, avec pour chacun une échelle de réponse en 5 points allant de « totalement en désaccord » à « tout à fait d’accord ». L’étude a été réalisée en août 2014 dans une société de services IT et de consulting de plus de 80000 salariés, implantée dans une quarantaine de pays. Depuis plusieurs années, sa direction a lancé une politique globale d’abandon des e-mails en développant une plateforme collaborative composée de trois outils principaux : un système de vidéoconférence, un réseau social interne et un système de partage de documents. L’étude s’est focalisée sur un département particulier de l’entreprise, le service chargé de gérer, dans les plus brefs délais, les interruptions de services IT des clients. Sur les 120 personnes concernées, réparties en 5 équipes en France et en Pologne, 66 réponses valides ont été collectées (55%). Leur analyse a ensuite permis de confirmer une partie des hypothèses émises.[/su_spoiler]
[su_pullquote align=”right”]Par Gilles Lafforgue [/su_pullquote]
Aujourd’hui, les questions de climat sont plus que jamais au cœur des négociations internationales. La solution de captage et stockage de carbone (CSC) serait-elle la plus prometteuse pour réduire les émissions sans diminuer la consommation d’énergies fossiles ?
Les énergies fossiles représentent aujourd’hui près de 80% des apports mondiaux en énergie primaire[1], et leur coût modeste les rend plus compétitives que les énergies renouvelables (solaire, éolien, biomasse…). Seulement, leur utilisation massive contribue à hauteur de 65% aux rejets de gaz à effet de serre, principalement du CO2, qui s’accumulent dans l’atmosphère et contribuent au réchauffement climatique.
En attendant une transition énergétique plus durable, le captage et la séquestration de carbone (CSC) apparaît comme une alternative viable à moyen terme, pour limiter les émissions, sans contraindre à réduire la consommation d’énergies fossiles. Mise au point dans les années 1970 pour améliorer l’efficacité dans l’extraction des gisements de pétrole, la technique du CSC consiste à capter à la source les émissions carbonées avant leur rejet dans l’atmosphère, et à les injecter ensuite dans des réservoirs naturels (par exemple, des aquifères salins, qui sont des formations géologiques renfermant une eau salée impropre à la consommation), dans d’anciens sites miniers ou encore dans des gisements d’hydrocarbures (en cours d’exploitation ou épuisés). Le CSC s’avère efficace, puisqu’il peut éliminer 80 à 90% des émissions provenant des centrales thermiques à charbon ou à gaz.
Reste à déterminer le coût d’utilisation d’un tel procédé. Le déploiement du CSC devient rentable si le montant de la taxe carbone[2] atteint entre 30 et 45 dollars/tonne pour les centrales thermiques à charbon, et 60-65 dollars/tonne pour les centrales à gaz (sachant que ce niveau de prix devrait baisser, compte tenu des évolutions technologiques). Cependant, le CSC ne peut être mis en œuvre à des coûts raisonnables que pour les secteurs qui produisent les émissions les plus importantes et les plus concentrées : les industries lourdes (cimenteries, aciéries…) ou les centrales électriques thermiques (notamment à charbon). Pour les rejets diffus et de faible ampleur, émanant par exemple du transport ou de l’agriculture, cette technologie est inappropriée.
Quelle stratégie faut-il donc adopter pour optimiser la séquestration de CO2 ?
Pour répondre à cette question, et afin d’associer efficacement l’exploitation des ressources fossiles à la séquestration de CO2, nous avons développé un modèle dynamique. Ce modèle permet de définir le rythme optimal de déploiement du CSC. Il prend en compte trois paramètres essentiels : la disponibilité des ressources fossiles, l’accumulation du carbone dans l’atmosphère (et son absorption très partielle par la biosphère et les océans), et la capacité limitée des sites de stockage. A travers ce modèle, nous montrons qu’il est optimal de séquestrer le plus grand pourcentage possible de CO2 dégagé par l’activité industrielle, dès le démarrage de l’opération du CSC. Ensuite, la séquestration de CO2 diminue progressivement jusqu’à ce que le site de stockage soit totalement rempli. A noter que tant que le CO2 peut être séquestré, la consommation d’énergies fossiles reste soutenue. Elle ralentit une fois que le réservoir est saturé et que tout le CO2 dégagé se trouve soumis au paiement de la taxe carbone. Interviennent alors les énergies renouvelables.
Dans une autre recherche, nous avons cherché à déterminer les politiques optimales de capture des émissions de CO2 en comparant deux secteurs. Le secteur 1, l’industrie lourde (aciéries, cimenteries…) ou les centrales électriques thermiques par exemple, dont les émissions sont concentrées, a accès au CSC et peut ainsi réduire ses émissions à un coût raisonnable. Le secteur 2, le secteur des transports par exemple, dont les émissions sont plus diffuses, n’a accès qu’à une technologie de capture de CO2 plus coûteuse (par exemple, la capture atmosphérique, une technique qui consiste à récupérer le CO2 dans l’atmosphère en utilisant un procédé chimique qui isole les molécules polluantes). En considérant ces deux secteurs dits “hétérogènes”, nous avons pu montrer qu’il est optimal de commencer à capturer les émissions du secteur 1, avant d’atteindre le plafond de pollution autorisé. La capture des émissions du secteur 2 commence une fois que le plafond de pollution est atteint, et n’est que partielle. En ce qui concerne la taxe carbone, la recherche montre qu’elle doit augmenter pendant la phase avant le plafond. Une fois que le plafond est atteint, la taxe doit diminuer par paliers jusqu’à zéro.
Dans l’économie de marché, il semble clair que le seul moyen d’inciter les industriels à capter et stocker le CO2, est d’attribuer un prix au carbone, par le biais d’une taxe par exemple. En effet, raisonnant en termes de “coût-efficacité”, les industriels comparent le coût de séquestration d’une tonne de carbone au montant de la taxe dont ils devraient s’acquitter si cette tonne était relâchée dans l’atmosphère. Cette taxe doit être unique et elle doit s’appliquer à tous les secteurs, quels qu’en soient le nombre et la nature. Quel niveau de taxe garantit une compétitivité minimale du CSC, et assure ainsi son développement ? Selon le GIEC (Groupe d’Experts Intergouvernemental sur l’évolution du climat), et afin de limiter la hausse globale des températures à 2°C, il faudrait que le plafond de pollution atmosphérique ne dépasse pas 450ppmv (parties par millions). Celui-ci se traduit par un niveau de taxe carbone d’environ 40 dollars/tonne de CO2 en 2015, qui atteindrait 190 dollars/tonne de CO2 en 2055 (date à laquelle le seuil est atteint), ce qui permettrait de stimuler largement le développement du CSC.
Il est cependant essentiel de noter que le captage n’est qu’une solution transitoire, qui permet de soustraire à l’atmosphère des émissions carbonées, tout en bénéficiant d’une énergie relativement bon marché, par rapport aux énergies renouvelables. D’ici 2030, les politiques devront mettre en place des stratégies pour opérer une transition durable vers des énergies propres.
[1] Energie primaire : énergie disponible dans la nature avant toute transformation (gaz naturel, pétrole…)
[2] Taxe carbone : officiellement appelée Contribution Climat Energie (CCE) en France, la taxe carbone est une taxe ajoutée au prix de vente de produits ou de services en fonction de la quantité de gaz à effet de serre, comme le gaz carbonique (CO2, dioxyde de carbone), émis lors de leur utilisation. Elle est entrée en vigueur en janvier 2015 et s’élève à 7 euros/tonne de carbone. Ce plafond préconisé de concentration atmosphérique de CO2 est établi en fonction des objectifs de limitation de la hausse des températures que l’on souhaite atteindre (par exemple, le fameux +2°C).
[su_note note_color=”#f8f8f8″]Par Gilles Lafforgue, et les articles « Lutte contre le réchauffement climatique : quelle stratégie de séquestration du CO2? » publié dans le magazine TBSearch, « Optimal Carbon Capture and Storage Policies » (2013), publié dans Environmental Modelling and Assessment, co-écrit par Alain Ayong le Kama (EconomiX, Université Paris Ouest Nanterre), Mouez Fodha (Paris School of Economics) et Gilles Lafforgue, et « Optimal Timing of CCS Policies with Heterogeneous Energy Consumption Sectors » (2014), publié dans Environmental and Resource Economics, co-écrit par Jean‐Pierre Amigues (TSE), Gilles Lafforgue et Michel Moreaux (TSE).[/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Les modèles macroéconomiques développés permettent de réfléchir à la façon dont la séquestration du CO2 peut être mise en œuvre pour contribuer efficacement à la lutte contre le réchauffement climatique, tout en maximisant les avantages de l’exploitation des énergies fossiles. Exprimés en taux d’émissions de CO2 à réduire, les résultats théoriques fournissent un éclairage pragmatique, matière à inspirer les politiques publiques afin d’inciter les industriels à séquestrer le CO2, plutôt que de payer la taxe carbone.[/su_box]
[su_spoiler title=”Méthodologie”] Dans la première étude, un modèle dynamique de gestion optimale de ressources énergétiques a été élaboré, prenant en compte les interactions économie-climat. Une valeur est attribuée au carbone, qui vient directement pénaliser l’activité économique. Pour le deuxième modèle, nous adoptons une approche “coût-efficacité”. En supposant un seuil maximal de rejets à ne pas dépasser (issu du protocole de Kyoto), l’échelle à laquelle le CSC doit être déployé est déterminée et nous associons une valeur financière au carbone. [/su_spoiler]