Par Olivier Prades

L’émergence de nouvelles formes de travail, liées au développement de l’économie collaborative ou des plateformes du type Uber, oblige à repenser les schémas classiques d’organisation du travail. Et donc le code du travail lui-même.

En raison du problème endémique du chômage, la majorité des réformes successives du droit du travail a été engagée avec l’ambition de créer de l’emploi. Créer des aides à l’emploi, jouer sur la durée du travail, diminuer les charges sociales, réduire la protection du salarié, faciliter le licenciement économique n’ont pas encore produit les effets escomptés.

Le projet de loi travail dont une des finalités est une fois encore de relancer l’emploi, utilise les mêmes vieilles recettes pour réformer l’existant sans prendre en compte, sinon à la marge, le développement ou l’émergence de nouvelles organisations du travail liées au développement d’activités économiques issues du numérique qui remettent en question la notion de travail et semblent être un vivier d’emploi.

Le télétravail générerait, chaque année, près de 10 milliards de gain pour l’économie française

Malgré le scepticisme lié aux déboires de l’économie « ubérisée », le rapport Mc Kinsey (« Accélérer la mutation numérique des entreprise : un gisement de croissance et de compétitivité pour la France ») constate qu’en 2013 la valeur ajoutée du numérique ramenée au PIB français s’est élevée à 5,5%, soit 113 milliards d’euros. En termes d’emplois directs, cela correspond à 3,3% de la population active et de manière quasi-équivalente à des emplois indirects ou induits.

[su_pullquote align=”right”]Par David Le Bris[/su_pullquote]

Dès 1372, des centaines d’actionnaires partagent la propriété de moulins sur la Garonne. Ils trouvent les solutions pour prendre les grandes décisions en commun, déléguer et surveiller des dirigeants grâce à des administrateurs, auditeurs… De plus, les cours de ces actions médiévales sont cohérents avec les modèles financiers contemporains.

Une vieille histoire remise en lumière aux Etats-Unis

Les prestigieuses presses universitaires de Yale viennent de publier The Origins of Corporations. The Mills of Toulouse in the Middle Ages, traduction d’une thèse en histoire du droit, soutenue en 1952 par Germain Sicard (1928-2016). Une thèse française traduite en anglais est une chose rare, 60 ans après sa soutenance, c’est tout à fait exceptionnel ! Il faut dire que cette thèse bouscule notre compréhension de l’histoire économique.

C’est la Hollande, voire l’Angleterre qui s’attribuent, non sans fierté, la paternité des premières véritables sociétés par actions avec les diverses compagnies des Indes apparues vers 1600. Mais Germain Sicard expose magistralement comment des sociétés par actions parfaitement modernes se sont formées trois siècles auparavant pour gérer une activité privée : des moulins à blé sur la Garonne à Toulouse.

Germain Sicard détaille la genèse de deux authentiques sociétés médiévales. Fidèle au droit romain, le Midi ne connaît pas le droit d’aînesse, ce qui aboutit à la création de structures juridiques appelées pariage permettant la propriété collective d’un bien. Initiée pour permettre des héritages égalitaires, la technique du pariage est ensuite utilisée dans de multiples contextes. Le plus fameux est celui d’Andorre, co-administré par le comte de Foix, dont le président de la République française est l’héritier. A Toulouse, des pariages se forment dès le XIIème siècle pour gérer des moulins sur la Garonne.

Des centaines de propriétaires (pariers) possèdent des parts (uchaux) dans différents moulins situés à deux emplacements dans la ville. Progressivement les dépenses communes aux moulins d’un emplacement (chaussée barrant le fleuve, procès) deviennent prépondérantes, incitant à modifier les associations initiales. Dès 1194, une assurance mutuelle est signée entre les propriétaires pour reconstruire à frais communs une éventuelle destruction, puis différentes formes d’associations temporaires sont expérimentées. En 1372, une société, l’Honor del molis del Bazacle devient définitive ; sa charte de fondation de 3 mètres de long est toujours conservée aux archives. Après des siècles de meunerie, l’entreprise se convertit en 1888 dans la production d’électricité. Elle sera cotée à la bourse de Toulouse puis de Paris jusqu’à sa nationalisation en 1946 lors de la création d’EDF.

moulin noir et blanc

Elaborer une gouvernance permettant d’investir à plusieurs

Avec Sébastien Pouget (TSE) et Will Goetzmann (Yale), nous avons repris cet extraordinaire sujet d’étude en explorant les archives au-delà du moyen-âge. Dans une étude consacrée à leur gouvernance, nous montrons comment ces moulins ont résolu les difficultés inhérentes à la séparation entre propriété et contrôle effectif d’une entreprise. Les problèmes de gouvernance sont centraux pour ces moulins ; meliori gubernatione est le premier motif invoqué à la constitution du Bazacle en 1372 ! Dès l’origine, les actionnaires bénéficient d’une responsabilité limitée. En 1417 puis 1587, des statuts détaillent la délégation du management par les actionnaires à différents agents, dont un CEO appelé Conterôlle qui dispose du contrôle effectif de l’entreprise, et un trésorier indépendant de ce dernier dont les comptes sont audités par des auditeurs indépendants. L’aléa moral¹ provenant de la délégation est limité, grâce à l’interdiction pour l’entreprise d’accumuler des réserves financières et à l’utilisation d’incitations explicites (une fraction des profits est versée aux employés) et implicites (les employés doivent prêter serment).

De plus, les actionnaires exercent une surveillance attentive des activités. Une assemblée générale (Cosselh general dels senhors paries am gran deliberacio) se tient chaque année pour prendre les grandes décisions, à la majorité des actionnaires présents. Dès 1390, huit actionnaires sont désignés chaque année pour composer un conseil d’administration supervisant l’activité de l’entreprise et deux autres pour auditer les comptes. Enfin, des investisseurs institutionnels formalisent leur surveillance, comme le collège universitaire de Mirepoix qui prévoit dans son statut de 1423 la manière de suivre ses investissements dans les uchaux toulousains.

Les solutions de gouvernance développées par ces moulins depuis le Moyen-Age sont donc très proches de celles observées dans les sociétés par actions contemporaines. Ces solutions ont été obtenues par de simples contrats privés, alors que les compagnies des Indes verront le jour grâce à des privilèges publics. Cela démontre que la société par actions est adaptée à différents contextes économiques et peut émerger dès lors que certaines conditions institutionnelles sont remplies, à commencer par des droits bien établis.

Ainsi, contrairement à une idée reçue, nous montrons que les droits de propriété sont parfaitement défendus depuis le 12ème siècle à Toulouse. Les actionnaires, qu’ils soient simple marchand, institution religieuse ou même roi de France, sont traités sur un strict pied d’égalité. Ils résistent à différentes tentatives d’expropriation qui ne réussiront finalement qu’au XXème siècle. Les outils conceptuels permettant le développement de la société par actions sont donc présents dans certaines parties d’Europe occidentale depuis le Moyen-Age. Cela bouscule la généalogie largement admise depuis les travaux de North d’une révolution institutionnelle en Europe du Nord qui aurait abouti à la Révolution Industrielle. La société par actions existait dès le Moyen-Age mais elle n’a pas entraîné un décollage économique décisif.

moulin3

Des valorisations financières médiévales cohérentes

Pour un second travail, nous avons collecté les cours et de dividendes du moulin du Bazacle réunissant des séries quasiment complètes de 1530 à 1946. Les premiers résultats montrent un taux de dividende de 5 % avec des gains en capital proches de zéro sur la longue durée, malgré une grande volatilité des cours des actions conséquence de l’instabilité des prix du blé mais aussi des destructions provoquées par les crues. La valeur réelle du dividende observée dans l’entre-deux-guerres est sensiblement identique à celle perçue par un actionnaire au début du XVIème siècle. Nous démontrons également que les cours sont cohérents avec les anticipations de flux futurs, validant ainsi la théorie de la valeur actuelle : théorie financière fondamentale mais rarement vérifiée empiriquement. Ces flux futurs sont actualisés à un taux qui varie de concert avec des variables macro-économiques et climatologiques, telles que la température estivale (mesurée approximativement grâce aux dates des vendanges en Bourgogne). Malgré le risque de désastre, les investisseurs n’ont pas obtenu une rentabilité excessivement élevée par rapport au risque supporté ce qui contraste avec les observations contemporaines. Ces observations montrent que dans l’histoire récente, notamment américaine, les actions semblent offrir une rentabilité anormalement élevée par rapport aux autres actifs financiers (equity premium puzzle).

[su_note note_color=”#f8f8f8″]Par David Le Bris et ses publications : Le Bris D., Goetzmann W. and Pouget S. (2014) Testing Asset Pricing Theory on Six Hundred Years of Stock Returns: Prices and Dividends for the Bazacle Company from 1372 to 1946, NBER Working Paper, wp. 20199 ;
Le Bris D., Goetzmann W. and Pouget S. (2015) The Development of Corporate Governance in Toulouse, NBER Working Paper, 2014, wp. 21335 ; Sicard G. (2015) The Origins of Corporations. New Haven, Yale University Press. [/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Ces moulins montrent que la société par actions est une solution efficace dans des contextes très variés limitant l’attrait pour d’autres formes de capitalismes. Nos recherches permettent aussi de distinguer les caractéristiques institutionnelles qui rendent possible cette forme de coopération qu’est la société par actions. Offrir des conditions favorables au développement des sociétés par actions dans les pays ou les secteurs qui en sont dépourvus serait source de prospérité. Ils montrent aussi que les hommes sont capables, y compris au moyen-âge, de donner un prix cohérent aux actifs financiers. Cela permet de penser que les exubérances parfois constatées sur les marchés actuels sont attribuables à des facteurs autres qu’une irrationalité des agents parfois envisagée. [/su_box]

[su_spoiler title=”Méthodologie”]Pour la première étude, nous avons parcouru les très riches archives des moulins à la lumière de la compréhension contemporaine de la gouvernance d’entreprise. Pour chaque problématique fondamentale de gouvernance, la solution développée dans les moulins est identifiée, analysée et comparée aux pratiques contemporaines apportant une observation précieuse car totalement indépendante de ce qui est observable aujourd’hui. Pour l’étude quantitative, un dépouillement exhaustif des archives comptables et financières a permis de construire des séries comparables de cours et dividendes. Un modèle d’ « asset pricing » idoine est ensuite développé puis testé en faisant des hypothèses sur le comportement des dividendes et la compréhension que pouvait en avoir les investisseurs de l’époque.[/su_spoiler]

[su_spoiler title=”Définition”]L’aléa moral est le risque que l’agent agisse en fonction de son intérêt personnel.[/su_spoiler]

[su_pullquote align=”right”]Par Delphine Gibassier[/su_pullquote]

Depuis une quinzaine d’années, nombre d’entreprises – répondant aux incitations du GHG Protocol, du CDP et d’autres classements – se sont engagées à mettre en place une comptabilité carbone et à se fixer des objectifs de réduction des émissions de gaz à effet de serre (GES) liées à leurs activités.

Selon le CDP, quelque 500 entreprises ont pris des « engagements sérieux concernant leur action sur le changement climatique par le biais de l’initiative « We Mean Business ».

De leur côté, des ONG ont constitué des groupes d’entreprises, comme le WWF Climate Savers, tandis que certaines agences nationales de l’environnement, dont celle des États-Unis, ont initié d’autres groupes tels que les Climate Leaders.

La COP21, un tournant… médiatique

Lors de la Conférence de Paris sur le climat fin 2015, les médias traditionnels et sociaux ont relayé une augmentation massive de l’engagement des entreprises dans la lutte contre le réchauffement climatique.

Des multinationales ont fait des annonces tonitruantes, s’engageant à décarboner leur modèle économique, se fixant des objectifs « basés sur la science », soutenant la mise en place d’une réglementation des États, prenant des engagements ambitieux pour passer à l’énergie 100 % renouvelable, réclamant l’application de la neutralité carbone ou encore appelant au désinvestissement dans les énergies fossiles.

Le PDG de Marks and Spencer n’a pas hésité à qualifier la COP21 de « tournant ». Plusieurs mois après la Conférence de Paris, qu’en est-il de ces promesses ?

Les entreprises les plus audacieuses se sont engagées à décarboner intégralement leur modèle économique. Une démarche qui passe par l’instauration d’objectifs ambitieux pour réduire les émissions de gaz à effets de serre de 80 à 100 %, ou se procurer 100 % de l’énergie nécessaire à partir de sources renouvelables. En décembre 2015, 87 entreprises faisaient partie de ce mouvement de décarbonation.

Des initiatives variées

• La neutralité carbone

Populaire au début des années 2000, la neutralité carbone s’est rapidement vue associée à du greenwashing. Difficile en effet d’évaluer si les entreprises avaient vraiment fait le maximum pour réduire leurs émissions ; les crédits carbone ont d’autre part été pointés du doigt pour leur manque de crédibilité.

Plusieurs annonces de neutralité carbone ont d’ailleurs fait l’objet de mesure de retrait : ce fut le cas de Dell qui avait promis d’être neutre en carbone en 2008 et s’est désengagé en 2011.

Ce mouvement en faveur de la neutralité carbone est réapparu avec des initiatives de plus petite envergure : à la conférence Climate Action 2016, Paul Polman a ainsi promis de rendre neutre en carbone sa filiale Ben&Jerry ; Danone, après avoir fait d’Evian une marque neutre en 2012 pour l’année 2011, a indiqué vouloir rééditer cet effort.

• Les renouvelables

En décembre 2015, l’initiative RE100 du Climate Group a réussi à obtenir l’engagement de 53 entreprises pour un objectif de 100 % d’électricité renouvelable. Aujourd’hui, 58 entreprises figurent sur cette liste, dont Coca-Cola qui s’est récemment exprimé à ce propos sur les réseaux sociaux.

• S’appuyer sur la recherche

Lors de la COP21, le groupe s’engageant à se fixer des objectifs basés sur la science comprenait 114 entreprises. Elles sont aujourd’hui 160. Les objectifs scientifiques sont essentiels en ce qu’« ils permettent aux entreprises de chercher à les atteindre en alignant leurs réductions de GES sur des budgets d’émissions globales générées par le modèle climatique », souligne le groupe We Mean Business.

• Donner un prix au carbone

89 multinationales ont rejoint la Carbon Pricing Leadership Coalition. Né lors de la COP 21, cet ensemble a tenu sa première réunion en avril 2016, appelant à une expansion des politiques de prix du carbone, pour passer d’un taux de couverture de 12 % des émissions mondiales de gaz à effet de serre aujourd’hui à 25 % en 2020, puis de doubler à nouveau ce chiffre pour passer un à taux de couverture de 50 % dans les dix ans.

Près de 40 gouvernements et 23 villes, États ou régions ont déjà mis un prix sur la pollution carbone. Selon le CDP, plus de 437 entreprises utilisent ainsi un prix interne du carbone ; et ce sont plus de 500 entreprises qui prévoient de les rejoindre dans les deux années à venir.

Cependant, les signataires de ces différentes initiatives constituent bien souvent un groupe d’acteurs commun s’engageant dans de multiples directions.

Où en est le désinvestissement ?

C’est sans doute le mouvement le plus emblématique lié aux affaires et au changement climatique. Le 2 décembre 2015, en pleine COP21, plus de 500 institutions, représentant selon Fossil Free plus de 3,4 trillions de dollars d’actifs, disaient vouloir retirer leur argent des énergies fossiles.

Une action de l’ONG 350.org aux Philippines en faveur du désinvestissement dans les énergies fossiles.
350.org

Encouragé par des ONG telles que 350.org et des associations étudiantes, ce mouvement touche aussi certaines universités anglo-saxonnes ayant pour investisseurs des fonds de pension. L’université d’Ottawa a ainsi accepté d’en finir avec les investissements dans les énergies fossiles, le président de l’université du Massachusetts a indiqué vouloir prendre des mesures similaires et l’université de Yale a partiellement cédé ses investissements dans ce secteur en avril.

Le GPFG, qui gère des fonds de 828 milliards de dollars et poursuit une stratégie de désinvestissement basée sur la gestion des risques, a indiqué dans son dernier rapport annuel s’être séparé d’une nouvelle compagnie de charbon. Un engagement que l’on retrouve du côté du fonds Rockfeller.

Toutefois, selon un rapport publié par le Projet de divulgation des propriétaires d’actifs (Asset Owners Disclosure Project, AODP), c’est moins d’un cinquième des principaux investisseurs – soit 97 investisseurs ayant en gestion 9,4 trillions de dollars en actifs – qui sont réellement en train de prendre des mesures concrètes pour atténuer les conséquences des changements climatiques.

Un autre pas en arrière, atténuant la portée de ce mouvement, est venu de l’Université de Stanford qui a rejeté une demande de désinvestir les 22,2 milliards de dollars de participations qu’elle détient dans des sociétés pétrolières et gazières. Harvard a affiché le même refus.

La COP22 doit devenir la COP de l’action – et de la transformation des engagements. Les entreprises devront donc prouver que ceux-ci se sont concrétisés et, surtout, qu’ils se sont diffusés à tous les secteurs et à travers les chaînes de valeur. Même si la conversion des promesses en action s’inscrit dans le moyen et le long terme, le suivi annuel de la montée en puissance de l’engagement des entreprises est un axe essentiel de la réussite de l’Accord de Paris.

The Conversation

Delphine Gibassier, Professeur de contrôle de gestion et de comptabilité environnementale, Toulouse Business School

La version originale de cet article a été publiée sur The Conversation.

[su_pullquote align=”right”]Par Gilles Lafforgue [/su_pullquote]

Aujourd’hui, les questions de climat sont plus que jamais au cœur des négociations internationales. La solution de captage et stockage de carbone (CSC) serait-elle la plus prometteuse pour réduire les émissions sans diminuer la consommation d’énergies fossiles ?

Les énergies fossiles représentent aujourd’hui près de 80% des apports mondiaux en énergie primaire[1], et leur coût modeste les rend plus compétitives que les énergies renouvelables (solaire, éolien, biomasse…). Seulement, leur utilisation massive contribue à hauteur de 65% aux rejets de gaz à effet de serre, principalement du CO2, qui s’accumulent dans l’atmosphère et contribuent au réchauffement climatique.

Le captage et le stockage du CO2 : une alternative viable ?

En attendant une transition énergétique plus durable, le captage et la séquestration de carbone (CSC) apparaît comme une alternative viable à moyen terme, pour limiter les émissions, sans contraindre à réduire la consommation d’énergies fossiles. Mise au point dans les années 1970 pour améliorer l’efficacité dans l’extraction des gisements de pétrole, la technique du CSC consiste à capter à la source les émissions carbonées avant leur rejet dans l’atmosphère, et à les injecter ensuite dans des réservoirs naturels (par exemple, des aquifères salins, qui sont des formations géologiques renfermant une eau salée impropre à la consommation), dans d’anciens sites miniers ou encore dans des gisements d’hydrocarbures (en cours d’exploitation ou épuisés). Le CSC s’avère efficace, puisqu’il peut éliminer 80 à 90% des émissions provenant des centrales thermiques à charbon ou à gaz.

Reste à déterminer le coût d’utilisation d’un tel procédé. Le déploiement du CSC devient rentable si le montant de la taxe carbone[2] atteint entre 30 et 45 dollars/tonne pour les centrales thermiques à charbon, et 60-65 dollars/tonne pour les centrales à gaz (sachant que ce niveau de prix devrait baisser, compte tenu des évolutions technologiques). Cependant, le CSC ne peut être mis en œuvre à des coûts raisonnables que pour les secteurs qui produisent les émissions les plus importantes et les plus concentrées : les industries lourdes (cimenteries, aciéries…) ou les centrales électriques thermiques (notamment à charbon). Pour les rejets diffus et de faible ampleur, émanant par exemple du transport ou de l’agriculture, cette technologie est inappropriée.

Quelle stratégie faut-il donc adopter pour optimiser la séquestration de CO2 ?

Les stratégies de déploiement du CSC

Pour répondre à cette question, et afin d’associer efficacement l’exploitation des ressources fossiles à la séquestration de CO2, nous avons développé un modèle dynamique. Ce modèle permet de définir le rythme optimal de déploiement du CSC. Il prend en compte trois paramètres essentiels : la disponibilité des ressources fossiles, l’accumulation du carbone dans l’atmosphère (et son absorption très partielle par la biosphère et les océans), et la capacité limitée des sites de stockage. A travers ce modèle, nous montrons qu’il est optimal de séquestrer le plus grand pourcentage possible de CO2 dégagé par l’activité industrielle, dès le démarrage de l’opération du CSC. Ensuite, la séquestration de CO2 diminue progressivement jusqu’à ce que le site de stockage soit totalement rempli. A noter que tant que le CO2 peut être séquestré, la consommation d’énergies fossiles reste soutenue. Elle ralentit une fois que le réservoir est saturé et que tout le CO2 dégagé se trouve soumis au paiement de la taxe carbone. Interviennent alors les énergies renouvelables.

Dans une autre recherche, nous avons cherché à déterminer les politiques optimales de capture des émissions de CO2 en comparant deux secteurs. Le secteur 1, l’industrie lourde (aciéries, cimenteries…) ou les centrales électriques thermiques par exemple, dont les émissions sont concentrées, a accès au CSC et peut ainsi réduire ses émissions à un coût raisonnable. Le secteur 2, le secteur des transports par exemple, dont les émissions sont plus diffuses, n’a accès qu’à une technologie de capture de CO2 plus coûteuse (par exemple, la capture atmosphérique, une technique qui consiste à récupérer le CO2 dans l’atmosphère en utilisant un procédé chimique qui isole les molécules polluantes). En considérant ces deux secteurs dits “hétérogènes”, nous avons pu montrer qu’il est optimal de commencer à capturer les émissions du secteur 1, avant d’atteindre le plafond de pollution autorisé. La capture des émissions du secteur 2 commence une fois que le plafond de pollution est atteint, et n’est que partielle. En ce qui concerne la taxe carbone, la recherche montre qu’elle doit augmenter pendant la phase avant le plafond. Une fois que le plafond est atteint, la taxe doit diminuer par paliers jusqu’à zéro.

Taxe carbone : le coût optimal pour une compétitivité minimale du CSC

Dans l’économie de marché, il semble clair que le seul moyen d’inciter les industriels à capter et stocker le CO2, est d’attribuer un prix au carbone, par le biais d’une taxe par exemple. En effet, raisonnant en termes de “coût-efficacité”, les industriels comparent le coût de séquestration d’une tonne de carbone au montant de la taxe dont ils devraient s’acquitter si cette tonne était relâchée dans l’atmosphère. Cette taxe doit être unique et elle doit s’appliquer à tous les secteurs, quels qu’en soient le nombre et la nature. Quel niveau de taxe garantit une compétitivité minimale du CSC, et assure ainsi son développement ? Selon le GIEC (Groupe d’Experts Intergouvernemental sur l’évolution du climat), et afin de limiter la hausse globale des températures à 2°C, il faudrait que le plafond de pollution atmosphérique ne dépasse pas 450ppmv (parties par millions). Celui-ci se traduit par un niveau de taxe carbone d’environ 40 dollars/tonne de CO2 en 2015, qui atteindrait 190 dollars/tonne de CO2 en 2055 (date à laquelle le seuil est atteint), ce qui permettrait de stimuler largement le développement du CSC.

Il est cependant essentiel de noter que le captage n’est qu’une solution transitoire, qui permet de soustraire à l’atmosphère des émissions carbonées, tout en bénéficiant d’une énergie relativement bon marché, par rapport aux énergies renouvelables. D’ici 2030, les politiques devront mettre en place des stratégies pour opérer une transition durable vers des énergies propres.

[1] Energie primaire : énergie disponible dans la nature avant toute transformation (gaz naturel, pétrole…)

[2] Taxe carbone : officiellement appelée Contribution Climat Energie (CCE) en France, la taxe carbone est une taxe ajoutée au prix de vente de produits ou de services en fonction de la quantité de gaz à effet de serre, comme le gaz carbonique (CO2, dioxyde de carbone), émis lors de leur utilisation. Elle est entrée en vigueur en janvier 2015 et s’élève à 7 euros/tonne de carbone. Ce plafond préconisé de concentration atmosphérique de CO2 est établi en fonction des objectifs de limitation de la hausse des températures que l’on souhaite atteindre (par exemple, le fameux +2°C).

[su_note note_color=”#f8f8f8″]Par Gilles Lafforgue, et les articles « Lutte contre le réchauffement climatique : quelle stratégie de séquestration du CO2? » publié dans le magazine TBSearch, « Optimal Carbon Capture and Storage Policies » (2013), publié dans Environmental Modelling and Assessment, co-écrit par Alain Ayong le Kama (EconomiX, Université Paris Ouest Nanterre), Mouez Fodha (Paris School of Economics) et Gilles Lafforgue, et « Optimal Timing of CCS Policies with Heterogeneous Energy Consumption Sectors » (2014), publié dans Environmental and Resource Economics, co-écrit par Jean‐Pierre Amigues (TSE), Gilles Lafforgue et Michel Moreaux (TSE).[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Les modèles macroéconomiques développés permettent de réfléchir à la façon dont la séquestration du CO2 peut être mise en œuvre pour contribuer efficacement à la lutte contre le réchauffement climatique, tout en maximisant les avantages de l’exploitation des énergies fossiles. Exprimés en taux d’émissions de CO2 à réduire, les résultats théoriques fournissent un éclairage pragmatique, matière à inspirer les politiques publiques afin d’inciter les industriels à séquestrer le CO2, plutôt que de payer la taxe carbone.[/su_box]

[su_spoiler title=”Méthodologie”] Dans la première étude, un modèle dynamique de gestion optimale de ressources énergétiques a été élaboré, prenant en compte les interactions économie-climat. Une valeur est attribuée au carbone, qui vient directement pénaliser l’activité économique.
Pour le deuxième modèle, nous adoptons une approche “coût-efficacité”. En supposant un seuil maximal de rejets à ne pas dépasser (issu du protocole de Kyoto), l’échelle à laquelle le CSC doit être déployé est déterminée et nous associons une valeur financière au carbone.
[/su_spoiler]

[su_pullquote align=”right”]Par Geneviève Cazes-Valette[/su_pullquote]

Cet article constitue le second volet d’une série sur la consommation de viande en France. Le premier volet se proposait d’analyser les résultats d’une étude* réalisée en juin dernier. Ces résultats témoignaient d’une baisse de la consommation carnée dans l’Hexagone ces dernières années, et de l’intention d’un nombre grandissant de personnes de réduire cette consommation à l’avenir.

La plupart des travaux de recherche expliquent – tout particulièrement depuis la première crise de la « vache folle » du printemps 1996 –, la baisse de consommation de viande en se référant au risque perçu par les consommateurs à l’idée d’en manger. Ce « risque perçu » peut être motivé par différentes raisons. Avant même la crise de la « vache folle », le danger de cette consommation sur un plan médical était déjà clairement évoqué, principalement via l’excès de cholestérol. Depuis, c’est la question du lien entre consommation carnée et cancer qui préoccupe, comme en témoignent les récentes annonces de l’OMS.

Une autre source de risque, apparue récemment dans les médias, concerne les menaces que l’élevage fait peser sur l’environnement, à cause des émissions de gaz mais aussi de l’utilisation de quantités de protéines végétales pour nourrir les troupeaux et ne produire au final que peu de protéines animales. Enfin, si, dès 1996, la question du risque éthique lié à la mort infligée à un animal pour le manger était présente, on constate depuis une préoccupation grandissante concernant les conditions de vie de l’animal avant sa mort (dans ce cadre précis, les élevages intensifs s’opposent aux extensifs).

Un nouvel état d’esprit chez les mangeurs

Notre étude avait pour but de déterminer si la fréquence de consommation de viande, ainsi que la baisse de celle-ci dans le passé ou à l’avenir, pouvait s’expliquer par le risque perçu, lui-même influencé par la préoccupation des répondants concernant leur santé, la protection de l’environnement ou le bien-être animal.

Que disent les résultats bruts relatifs à ces différentes mesures ? Sur une échelle de 1 à 7 points (le score le plus bas signifiant « pas de risque perçu », « pas de préoccupation envers la santé, l’environnement ou le bien-être animal »), on note que le risque perçu à consommer de la viande est globalement très moyen (3,7/7). Au niveau des différentes préoccupations liées à ce risque, les chiffres sont les suivants : 5,43/7 en ce qui concerne la préoccupation des répondants à l’égard de l’environnement, 5,51/7 pour leur propre santé et, 5,86/7, pour le souci du bien-être animal. Ces données nous semblent refléter un nouvel état d’esprit chez les mangeurs, assez différent du discours médiatique centré sur les arguments santé.

Viande Francais

La question du bien-être animal préoccupe une part grandissante des consommateurs français. iStock Photos

L’enjeu éthique de la qualité

La fréquence de consommation et son éventuelle diminution dépend-elle bien du risque perçu ? Oui : plus on perçoit de risque, plus on aura tendance à s’abstenir fréquemment de viande maintenant et à l’avenir. Le risque perçu dépend-il des facteurs que nous avions prévu ? Pas tout à fait : la préoccupation pour sa santé en général et le souci du bien-être animal n’augmentent pas le risque perçu. Seule la préoccupation pour l’environnement, en particulier pour la biosphère (règnes végétaux et animaux), augmente le risque perçu. En revanche, la fréquence actuelle de consommation de viande ne dépend pas seulement du risque perçu, mais aussi du souci du bien-être animal : plus cette question est importante aux yeux des répondants, moins souvent ils consommeront de la viande.

Ces résultats ne préfigurent probablement pas une augmentation massive du nombre de végétariens ; en revanche, ils doivent interpeller les acteurs de la filière et en particulier les éleveurs : l’élevage intensif risque d’être de moins en moins bien toléré. Il semblerait qu’une partie des mangeurs de viande se dirigent vers une consommation moindre, mais de plus haute qualité. Un phénomène qu’a connu le milieu viticole à la fin du siècle dernier. Et qui permettrait peut-être aux éleveurs extensifs de mieux vivre de leur travail ? À condition que les déclarations des répondants soient suivies d’actes, et qu’ils acceptent de payer le prix d’une production naturellement moins productive…

* Enquête auprès de 500 personnes représentatives de la population française de 15 ans et plus, conduite online avec le panel Toluna du 29 mai au 1er juin 2015 et financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay). Elle a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).

Par Geneviève Cazes-Valette, Anthropologue, Professeur de marketing, Toulouse Business School

La version originale de cet article a été publiée sur The Conversation.

[su_pullquote align=”right”]Par Laurent Germain et Anne Vanhems[/su_pullquote]

Pour mieux comprendre les bulles spéculatives, nous nous sommes penchés sur la personnalité des traders et avons remarqué que certains n’agissent pas de façon logique. Mais ces derniers ne sont pas les seuls à avoir une influence sur les marchés financiers.

Pour chaque transaction, les traders doivent prendre en compte de nombreux paramètres : les tendances du marché, les stratégies des compétiteurs, les faits d’actualité. Mais parfois la situation dérape : d’autres éléments moins rationnels influencent leur décision.

L’étude des personnalités pour expliquer certains événements

Malgré leur expérience, les individus ont parfois des comportements biaisés. Ainsi, on peut observer des réactions disproportionnées, comme l’achat d’actions à un prix beaucoup trop élevé par rapport à leur valeur intrinsèque. Ce sont ces décisions illogiques qui engendrent les bulles spéculatives puis les krachs lorsque tout le monde veut vendre ses biens simultanément et que leur valeur s’effondre.
S’il est maintenant admis que certains traders n’agissent pas rationnellement, il reste difficile d’envisager que ce soit également le cas pour les market makers (animateurs de marché). Ces market makers sont les organismes (banques d’investissement pour la plupart), ou les personnes, qui fixent les prix à l’achat et à la vente des actifs : on dit qu’ils cotent les actifs. Pourtant, on peut montrer que certains de ces market makers prennent également de mauvaises décisions.
Les market makers sont réputés plus expérimentés et plus aguerris. Ils sont payés pour avoir un coup d’avance et les traders sont entraînés à décoder leurs dernières stratégies. Comme ce sont des meneurs de jeu, il était difficile d’admettre que ces market makers pouvaient agir de manière illogique, en augmentant les prix lorsque les signaux sont au rouge, ou, à l’inverse, à baisser les prix des actions dans une situation de demande élevée.
Pour étudier l’influence de ce problème, nous avons isolé les deux biais principaux. Le premier biais, lié au degré d’optimisme, pousse l’agent à se tromper sur la tendance du marché. Ainsi en présence d’indices qui montrent qu’une action va perdre de la valeur, il peut penser qu’elle remontera bientôt. Le second biais, associé au niveau de confiance, l’induit à se tromper sur ses propres compétences. Il a alors tendance à faire beaucoup varier le prix de l’action ce qui impacte la volatilité du marché. Or, plus la volatilité est élevée, plus les gains et les pertes peuvent être importants.

Les effets de ces biais et les conséquences sur les marchés

Tout d’abord, nous avons constaté que les biais des market makers influencent la profondeur et la liquidité du marché. Un marché profond est un marché où le prix reste relativement stable. Un marché liquide est un marché où les prix ne sont pas fixés de manière agressive (il y a alors beaucoup d’achats et de reventes).
Par exemple, un market maker optimiste pense que l’information qu’il a reçue est plus sûre que ce qu’elle n’est en réalité et considère que son jugement est moins crucial dans sa décision. Il aura alors tendance à surestimer le prix de l’actif, et les traders (ceux qui achètent et revendent) vont diminuer le nombre de transactions qu’ils effectuent. Et lorsque cet animateur de marché a trop confiance en son appréciation, il cote l’actif de manière moins agressive et augmente ainsi la liquidité du marché. La crise de la tulipe a été la première bulle spéculative et reste emblématique de l’emballement du marché financier. En 1636-1637, certains bulbes ont été vendus à plus de quinze fois le salaire annuel de l’horticulteur et le volume échangé sur les marchés était complètement déconnecté de la quantité réelle de bulbes disponibles.
Le premier constat de cette étude est que des market makers trop ou pas assez confiants peuvent faire des profits ou des pertes. Lorsque le market maker est pessimiste, mais a confiance en son jugement, on observe des variations de prix plus faibles. Mécaniquement les prix augmentent, et le volume échangé par les traders rationnels est alors plus faible. Pourtant, nous constatons que ce marché profite ainsi aux market makers : la hausse des prix n’impacte pas la demande globale.
Les résultats de cette recherche montrent aussi que si les traders ayant des comportements biaisés provoquent des situations de déséquilibre, les market makers trop sûrs d’eux augmentent la probabilité que cela arrive. Par exemple, un animateur optimiste amplifie l’excès de trading, ce qui signifie que le nombre de transactions est trop important. On peut faire le parallèle avec la bulle internet, lors de laquelle les traders comme les animateurs se sont vus à la veille d’une nouvelle économie et donc d’une croissance extrême. Les prix des actions des startups technologiques se sont alors envolés, décorrélés des bénéfices réels des entreprises, et pourtant le nombre de transactions ne cessait d’augmenter. Le krach de mars 2000 a entraîné une récession du secteur mais aussi de l’économie en général, avec des pertes dépassant les profits réalisés.
Par ailleurs, nous avons prouvé un résultat inédit : la présence de market makers au comportement biaisé bénéficie parfois aux traders peu confiants. Dans ce cas, un trader qui manque de confiance peut avoir de meilleurs résultats qu’un trader qui agit correctement. Prenons l’exemple d’une action dont la valeur ne va pas évoluer. Le market maker optimiste pense qu’elle va augmenter, et donc fixe un prix élevé. Un trader pessimiste pense qu’elle va baisser, et vend ses actions, alors qu’un trader «standard» va attendre. Le trader pessimiste réalise des profits et pas le trader « standard ».
On peut conclure que notre recherche montre que la volatilité observée ne vient peut-être pas que des traders, mais peut aussi être amplifiée par l’attitude des animateurs de marché. En effet, la dernière conclusion de l’étude est que dans les cas extrêmes de niveau de confiance, on observe une volatilité et un volume de transaction excessifs. Dans une situation où certains traders manquent de confiance, les market makers qui manquent eux aussi de confiance vont entraîner les traders rationnels à effectuer trop de transactions.
Nous travaillons maintenant sur un nouveau modèle plus complexe qui considère que les animateurs de marché agissent les uns en fonction des autres : c’est-à-dire qu’ils ne se comportent plus comme des boîtes noires indépendantes mais qu’ils tiennent compte des stratégies de leurs homologues.

[su_note note_color=”#f8f8f8″]Par Laurent Germain et Anne Vanhems et l’article « Irrational Market Makers », coécrit avec Fabrice Rousseau et Anne Vanhems, publié dans Finance vol. 35, no 1, avril 2014. Cet article a gagné le Prix 2014 délivré par l’Association Française de Finance.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Ces résultats inédits ouvrent la porte à de nouvelles stratégies dans lesquelles les traders et les animateurs de marché doivent considérer que, au sein de leurs pairs comme au sein de la partie adverse, certains agents peuvent prendre des décisions biaisées.
Les banques se sont montrées très intéressées par l’étude à la sortie de l’article, on peut penser que cette théorie a été retenue dans leurs manœuvres de trading.
[/su_box]

[su_spoiler title=”Méthodologie”]Notre équipe de chercheurs a établi un modèle mathématique simulant les effets des biais psychologiques sur les marchés. Nous avons établi deux schémas de référence : un premier où tous les acteurs sont rationnels et un second comprenant des traders rationnels et irrationnels traitant avec des animateurs de marché rationnels. Ils permettent d’illustrer dans un premier temps l’impact de l’irrationalité des traders. Puis nous avons comparé ces résultats à une simulation où tous les animateurs de marché sont irrationnels.[/su_spoiler]

[su_pullquote align=”right”]Par Geneviève Cazes-Valette[/su_pullquote]

Les Français sont de grands amateurs de viande : ils en ont consommé 88,7 kg en 2011, contre une moyenne mondiale de 42 kg. Cette consommation de viande de boucherie (hors charcuterie et plats cuisinés) marque cependant le pas depuis 1998. Et il fait peu de doute que les récentes annonces de l’OMS quant à l’incidence avérée ou probable de la consommation de charcuterie et de viande rouge sur la santé vont encore accélérer le processus de baisse déjà enclenché.

À travers une récente étude menée auprès de 500 personnes de 15 ans et plus, représentative de la population française (1), conduite online avec le panel Toluna du 29 mai au 1er juin 2015, nous (2) avons cherché à mieux comprendre les comportements passés, présents et prévus dans l’avenir en matière de consommation carnée, quelle qu’en soit la forme (brute ou transformée).

Nos données – déclaratives – corroborent les tendances énoncées plus haut et mentionnées par d’autres études. Les Français apprécient la viande : ils sont près de 24 % à en manger au moins une fois par jour, 34 % tous les jours ou presque, 33 % plus d’une fois par semaine et seulement 7 % plus d’une fois par mois. Quant aux végétariens déclarés, ils ne sont que 2,4 %.

La tranche d’âge des 15-24 ans se caractérise par des comportements extrêmes : ils sont 30 % à manger de la viande au moins une fois par jour, et près de 10 % à être végétariens (ou végétaliens). À l’opposé, les 50 ans et plus affichent des comportements plus nuancés : seulement 18 % d’entre eux mangent de la viande au moins une fois par jour, mais ils sont moins de 1 % à être végétarien. En termes de genre, la viande est clairement virile : les femmes en consomment moins souvent et la grande majorité des végétariens sont des végétariennes. Au niveau des catégories socioprofessionnelles, trois groupes se distinguent nettement : les cadres et professions intellectuelles supérieures par une surconsommation, les retraités par une plus faible fréquence et les personnes sans activité professionnelle par un taux de végétarisme plus élevé.

Une baisse amorcée depuis plusieurs années

Les Français ont toutefois revu leur consommation à la baisse au cours des trois années précédentes : si 45 % déclarent n’avoir rien changé à leurs habitudes, seulement 8,4 % disent avoir augmenté leur fréquence de consommation, contre 46,6 % qui l’ont diminuée. Si l’effet sur la baisse des quantités globales de viande consommée n’est pas aussi intense que ces chiffres pourraient le laisser présager, c’est parce que les personnes ayant diminué leurs apports carnés s’observent plus souvent parmi les consommateurs moyens à faibles (ceux qui consomment seulement plus d’une fois par semaine ou par mois).

Les plus de 50 ans, les femmes et les retraités sont plus nombreux à avoir baissé leur consommation. À contrario, ceux qui l’ont augmentée figurent chez les moins de 35 ans, les hommes, les cadres et les employés. À noter toutefois que les 15-24 ans se caractérisent, comme déjà évoqués, par des comportements contrastés : plus nombreux que la moyenne à avoir accru leur consommation, ils sont aussi plus nombreux à avoir adopté le végétarisme.

Fruits Legumes
Les futurs végétariens se recrutent chez les femmes et les moins de 25 ans. iStock Photos

Les intentions de comportement pour les trois années à venir vont dans le sens de ces résultats, tout en étant plus modérées : près de 6 % des Français projettent d’augmenter leur fréquence de consommation, 57 % de ne pas en changer et 37 % de diminuer. Globalement, les choix passés se confirmeront à l’avenir. Un gros tiers de ceux qui disent avoir augmenté leur consommation dans le passé déclarent toutefois avoir l’intention de diminuer à l’avenir, alors que seulement 5 % de ceux qui avaient diminué ont l’intention de l’augmenter. La tendance à la baisse de fréquence de consommation est donc nette et devrait se confirmer. Elle concerne surtout les femmes et les moins de 25 ans qui sont près de 10 % à manifester l’intention d’arrêter totalement de consommer de la viande, alors que, dans le même temps, les actuels végétariens de cette tranche d’âge comptent tous persister dans leur choix.

Au-delà de ces comportements, quelles sont les raisons invoquées par les répondants pour expliquer la baisse de leur consommation ou leur intention de le faire ? Les réponses sont multiples. À l’instar de l’étude publiée par Le Monde, ce sont les raisons de budget et de santé qui arrivent en tête (respectivement pour 45 et 40 % des répondants), puis la protection de l’environnement (28 %), la maîtrise de son poids (24 %), la pitié pour les animaux d’élevage (23 %) et enfin les scandales du type « horsegate » (22 %). Les diminutions prévues pour l’avenir sont, elles, d’abord liées à la santé et au budget (respectivement 48 et 39 %), puis à l’environnement et aux animaux (resp. 38 et 37 %) et enfin aux scandales alimentaires et à la maîtrise du poids (resp. 27 et 24 %).

(1) Représentativité assurée par quotas sur âge, sexe du répondant et CSP du responsable du foyer.
(2) Cette étude, financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay), a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).

Par Geneviève Cazes-Valette, Professeur de marketing, Toulouse Business School

La version originale de cet article a été publiée sur The Conversation.

Prof. Gaël Gueguen à TBS
Prof. Gaël Gueguen à TBS

En s’appuyant sur les résultats du Tour de France cycliste, cette étude montre que les différences culturelles entre coureurs d’une même équipe n’ont pas d’impact sur la performance. Un constat qui, sous certaines conditions, est transposable au monde du travail où les questions de diversité font encore l’objet de débats.

Dans quelle mesure peut-on transposer au sport, notamment le cyclisme, certains concepts bien connus du management (collaboration au sein d’une équipe, stratégie, concurrence, etc.) ? L’objectif final étant de mieux comprendre le fonctionnement du cyclisme, mais également, par effet de ricochet, d’améliorer notre connaissance de l’entreprise. Début de réponse avec les travaux de Gaël Gueguen, qui se demande si la diversité culturelle des équipes participant au Tour de France (évaluée notamment par le nombre de pays représentés) impacte leurs résultats sportifs.

La diversité, un risque pour la cohésion d’équipe

Le sport de haut niveau nécessite de faire appel aux meilleures ressources, qu’elles soient humaines ou matérielles. Pour un budget donné, une équipe de haut niveau recherchera les meilleurs athlètes possibles et sera donc incitée à faire son recrutement au sein d’un marché mondial. Dans le cadre du Tour de France, où l’internationalisation des équipes s’est accélérée ces dernières années, on constate ainsi entre 1987 et 2009 une diminution de la part des pays « terres de cyclisme » (France, Italie, Espagne, Belgique et Pays-Bas) au profit d’équipes constituées de cinq nationalités différentes ou plus. Et la tendance se confirme puisqu’en 2015, pour la première fois, une équipe sud-africaine et deux Erythréennes participaient au Tour. Mais cette mondialisation qui touche le sport professionnel n’est pas sans risque : la diversité culturelle peut poser des problèmes de coordination (difficultés de compréhension mutuelle par exemple quand les langues parlées au sein des équipes varient) et nuire à la cohésion des coureurs (différences de valeurs et d’attitudes). La question est d’autant plus cruciale dans le cyclisme, discipline pour laquelle l’importance des sponsors et le caractère mondial des compétitions, impose parfois de recruter des sportifs étrangers parce que leurs pays sont ciblés par les marques.

Dans le cyclisme, la diversité culturelle ne nuit pas à la performance

Doit-on privilégier, au sein des équipes de haut niveau, des sportifs de cultures proches ou peut-on s’affranchir de cette dimension ? Un groupe focalisé sur une tâche précise et composé de ressources complémentaires rares (grimpeurs exceptionnels, sprinteurs, rouleurs hors-pair, ou leaders plus polyvalents …) devant se coordonner en situation de compétition, ne risque-t-il pas de souffrir d’une trop grande diversité de ses membres ? Il semble que non. La diversité culturelle n’a aucun impact sur les résultats sportifs. Les coachs d’équipes cyclistes peuvent privilégier la valeur d’un coureur, quelle que soit sa nationalité, sans avoir à craindre une différence culturelle forte. Explication possible : le professionnalisme des coureurs et de leurs managers compensent les problèmes de coordination. En effet, comme la synchronisation des efforts de chacun est supervisée par un directeur sportif, les rôles des membres de l’équipe sont parfaitement définis. L’entraînement régulier permet par ailleurs de transformer chaque tâche des cyclistes en routine parfaitement maîtrisée.

Du cyclisme au monde de l’entreprise, il n’y a qu’un pas

Une entreprise est composée de ressources humaines rarement homogènes : sexe, âge, expérience, nationalité, salaires, etc. L’importance de ces différences est-elle plutôt favorable ou défavorable à la performance des équipes de travail ? L’analyse des travaux sur la diversité dans l’entreprise montre des résultats contradictoires. Par exemple, la diversité des membres d’une équipe peut dans certains cas accroître sa créativité et améliorer la prise de décisions (les opinions diverses favorisant l’émergence de bonnes idées). Dans d’autres, elle peut nuire à la cohésion, à la confiance et à la communication avec pour corolaire une hausse des tensions et des conflits. L’absence de lien entre diversité culturelle et performance dans le cyclisme peut-elle aider à mieux comprendre ce qui se passe dans l’entreprise ? Sans doute, mais sous certaines conditions. L’épreuve du Tour de France est en effet un cas d’étude bien particulier, ce qui limite sa généralisation. D’abord parce que, dans le cyclisme professionnel, les membres des équipes sont extrêmement spécialisés. Ensuite parce que l’épreuve reine du cyclisme met en compétition des équipes seulement composées de leurs neuf meilleurs éléments parmi la trentaine de coureurs sous contrat (et non de la totalité de son effectif, comme c’est le cas au sein d’une entreprise).

Reste que la méthodologie utilisée peut parfaitement être transposée pour étudier l’impact de la diversité culturelle des équipes de top managers sur la performance des multinationales. Une approche intéressante alors que de plus en plus d’entreprises diversifient leur comité exécutif à mesure qu’elles se développent à l’international. Dans une multinationale comme L’Oréal, par exemple, le recrutement de managers issus de pays divers est considéré comme le principal facteur de succès des lancements de produits dans les pays émergents. Et pour limiter le « syndrome Tour de Babel »*, les équipes multiculturelles sont organisées autour d’un leader qui, grâce à ses propres expériences dans des pays variés, sait gérer les tensions interculturelles**.

* Difficulté à coordonner les efforts en raison des différentes langues parlées dans l’équipe.
** “L’Oréal Masters Multiculturalism” de Hae-Jung Hong et Yves Doz (Harvard Business Review, juin 2013).

Par Gaël Gueguen et l’article « Diversité culturelle et performance des équipes sportives de haut niveau : le cas du Tour de France », (Management International, 2011).

[su_pullquote align=”right”]Par Gregory Voss[/su_pullquote]

La réforme lancée en 2012 par l’Union européenne (UE) en vue d’assurer un haut niveau de protection des données à caractère personnel pour les citoyens des 28 pays membres verra-t-elle le jour en 2017 ? C’est possible, mais il reste encore à trouver un accord entre le Parlement européen, le Conseil de l’UE et la Commission européenne : c’est la phase du trilogue.

Depuis juin 2015, ces trois institutions de l’UE négocient pour parvenir à un texte unique, le Règlement général sur la protection des données (RGPD). Il existe encore des points de désaccord entre le Parlement et le Conseil, en particulier sur l’obtention du consentement individuel concernant le traitement des données personnelles, les droits et devoirs des collecteurs de données, le montant des amendes en cas d’infraction.

Dès 2012, la Commission européenne a proposé une nouvelle législation sur la protection des données à caractère personnel. Mais ce texte voté par le Parlement européen le 12 mars 2014, attend désormais d’être validé par le Conseil de l’UE. Cette réforme permettra de protéger les citoyens européens et leurs données personnelles même pour les entreprises transnationales responsables du traitement des données via Internet dont le siège ne se trouve pas dans l’UE. Si le niveau de protection des données personnelles en Europe est en général élevé, le niveau des sanctions financières est trop bas, contrairement à ce qui se passe aux Etats-Unis.

Dès que les trois instances de l’UE se seront mises d’accord sur un projet de texte, celui-ci ne pourra être adopté qu’après deux lectures consécutives du même texte par le Parlement, directement élu par les citoyens, et le Conseil qui réunit les gouvernements des 28 états membres. Une fois adopté (sans doute en 2016, même si certains penchent pour une adoption fin 2015), il deviendra applicable dans les deux années suivant l’adoption.

Ce RGPD harmonisera le droit européen et pourrait avoir pour autre atout d’engager un processus d’harmonisation du droit international en matière de protection des données personnelles vers le haut. Par ailleurs, la réduction du fardeau administratif grâce à ce seul texte de loi permettra d’économiser 2,3 milliards d’euros par an, selon les calculs de la Commission.

Le processus peut sembler long mais il convient de rappeler qu’il a fallu 5 années pour négocier la Directive européenne de 1995 sur la protection des données à caractère personnel. Pour le RGPD nous n’en somme qu’à 3 ans et demi, il reste donc de la  marge.

Le RGPD fait l’objet d’un intense travail de lobbying par les représentants des responsables du traitement des données. Ces derniers, même s’ils ralentissent le travail législatif, peuvent jouer un rôle légitime en informant le législateur sur les réalités des sociétés collectrices de données.

Depuis l’affaire Snowden, la réforme législative a connu de nombreux soubresauts. Edward Snowden, ancien consultant de la CIA et membre de la National Security Agency (NSA), révélait en juin 2013, que le gouvernement des Etats-Unis avait collecté auprès de 9 géants américains des nouvelles technologies des informations à caractère personnel au sujet de personnes vivant hors des Etats-Unis, notamment dans le cadre d’un programme de surveillance électronique appelé PRISM. Dès le 21 octobre 2013, le Parlement européen proposait un texte dans lequel une des dispositions stipulait que « le responsable du traitement ou le sous-traitant informent […] la personne concernée de toute communication de données à caractère personnel à des autorités publiques au cours des douze derniers mois consécutifs ». Cette disposition est de toute évidence influencée par l’affaire PRISM.

En général, les affaires liées à la protection des données stimulent le débat sur la vie privée en Europe,  même si elles ont ébranlé la confiance entre l’UE et les Etats-Unis. Ainsi, le 6 octobre 2015, dans une affaire sur le transfert des données d’un citoyen autrichien aux États-Unis par la filiale de Facebook en Europe, la Cour de justice de l’UE (CJUE) a invalidé les Principes de la sphère de sécurité (Safe Harbor Principles) qui permettaient un tel transfert. En cas de menaces sur la sécurité des Etats-Unis, une clause permettait aux autorités étatsuniennes d’accéder aux données personnelles des Européens. La CJUE a tout naturellement suivi les conclusions de l’avocat général suite à l’annonce de la décision de la CJUE qui selon lui, « pose un problème pour les plus de 4000 sociétés américaines et européennes qui dépendent des Safe Harbor Principles pour transférer des données à caractère personnel aux États-Unis ».  Reste à voir les actions que les institutions et les entreprises européennes et américaines vont engager suite à cette décision.

D’un autre côté, même en l’absence d’un RGPD, l’affaire Google Privacy Policy, révèle que les Etats membres de l’UE ont à leur disposition des outils pour contraindre le moteur de recherche à respecter la vie privée et les données à caractère personnel. Ainsi, après plusieurs injonctions, les autorités de surveillance de la protection des données personnelles d’Allemagne d’Espagne, de France, d’Italie, des Pays-Bas et du Royaume Uni ont prononcé à l’encontre de Google des sanctions, notamment des amendes de plusieurs centaines de milliers d’euros. Même si ces pénalités sont relativement peu élevées par rapport au chiffre d’affaires annuel de Google (59 milliards d’euros en 2014), elles annoncent des mesures coercitives plus sévères basées sur le chiffre d’affaires de l’entreprise sanctionnée dans le projet de législation européen.

En France, la Commission Nationale de l’Informatique et des Libertés (CNIL) est en désaccord avec Google sur le déréférencement suite à la décision Google Spain de la CJUE. Depuis la reconnaissance de ce droit par le tribunal, en 2014, toute personne peut demander à un moteur de recherche d’effacer les résultats apparaissant en cas de requête à partir de son nom. Conséquence: Google a reçu plusieurs dizaines de milliers de demandes de citoyens français. Elle a donc procédé au déréférencement de certains résultats sur les extensions européennes du moteur de recherches (.fr ; .es ; .co.uk ; etc.). Mais elle n’a pas procédé au déréférencement sur les autres terminaisons géographiques ou sur google.com, consultable par tout internaute. En mai 2015, la CNIL a mis en demeure Google de procéder au déréférencement sur tous les noms de domaine. Mais Google fait valoir que cette décision constitue une atteinte au droit à l’information du public et donc une forme de censure. Un rapporteur sera sans doute nommé pour trouver une solution.

Pendant que l’Union européenne tente d’arracher un texte commun sur la protection des données personnelles, les états comme la France continuent de renforcer leur arsenal législatif. Le gouvernement a ainsi présenté le 26 septembre 2015 un projet de texte soumis à l’avis du public pour une « République numérique » : une trentaine d’articles portant sur le secret des correspondances électroniques, la portabilité des fichiers, le libre accès aux données publiques. La consultation des citoyens dans l’élaboration du document est une procédure intéressante dont il conviendra de suivre l’évolution.

[su_note note_color=”#f8f8f8″]Par Gregory Voss et les articles « European Union Data Privacy Law Developments », publié dans The Business Lawyer (volume 70, number 1, Hiver 2014-2015), « Looking at European Union Data Protection Law Reform Through a Different Prism : the Proposed EU General Data Protection Regulation Two Years Later », publié dans Journal of Internet Law (volume 17, number 9, mars 2014) et « Privacy, E-Commerce, and Data Security », publié dans The Year in Review, publication annuelle de ABA/Section of International Law (Printemps 2014), co-écrit avec Katherine Woodock, Don Corbet, Chris Bollard, Jennifer L. Mozwecz, et João Luis Traça.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]L’impact du RGDP pour les entreprises va dépendre du texte final adopté par l’UE. Ce qui est certain c’est qu’il y aura une plus grande responsabilisation des entreprises qui gèrent les données. Certaines entreprises vont sans doute devoir créer des postes de délégué à la protection des données  (DPD) sur le modèle du Correspondant Informatique et Libertés (CIL) en France. Des entreprises spécialisées dans l’impact des juridictions en matière de protection de la vie privée vont également voir le jour. Il conseille donc aux chefs d’entreprises d’effectuer une veille législative en matière de protection des données personnelles afin de se conformer à la législation dès que celle-ci entrera en vigueur. Il suggère de sensibiliser les employés par des formations sur la protection des données personnelles. Enfin, les entreprises devront mettre en place des procédures adéquates pour se conformer à la législation sur la protection des données à caractère personnel, y compris celles qui permettront les notifications qui seront requises par le RGDP des violations de données à caractère personnel.[/su_box]

[su_spoiler title=”Méthodologie”]Pour rédiger ses articles sur la législation en matière de protection des données à caractère personnelle, j’ai analysé de nombreux documents juridiques ainsi que « des centaines de pages de propositions, d’amendements, d’avis » émanant surtout des travaux du G29, le groupe de travail indépendant de l’UE sur le traitement des données à caractère personnel. Dans ses articles, je mets en perspective les propositions des instances européennes pour l’adoption d’un RGPD et offre des conseils pratiques pour les entreprises. J’ai également examiné l’évolution des positions des différentes instances européennes, Commission européenne, Parlement, Conseil de l’UE et  a étudié les réactions du législateur suite aux révélations d’Edward Snowden en matière de surveillance électronique..[/su_spoiler]

Par Alain Klarsfeld.

Entre 2010 et 2012, trois lois majeures ont été promulguées, imposant aux entreprises et aux administrations de progresser sensiblement en matière d’égalité homme-femmes. La loi de 2011 a porté en particulier sur l’équilibre de la représentation hommes-femmes dans les conseils d’administration et de surveillance des entreprises et des administrations publiques. Tour d’horizon de l’impact de cette loi avec l’enseignant chercheur Alain Klarsfeld.

Égalité professionnelle et lutte contre les discriminations : une évolution globale en demi-teinte

Malgré les lois et les actions volontaristes en faveur de l’égalité professionnelle et de la lutte contre les discriminations, les progrès restent mineurs dans bien des domaines. Les entreprises se sont certes rapprochées du quota de 6% exigés par la loi en matière d’intégration des personnes handicapées, alors que l’on atteignait à peine 4% il y a dix ans. Mais on est encore loin du compte. En matière d’emploi des seniors, elles ont également fait de réels efforts pour le maintien dans l’emploi (+ 8% en 7 ans), avec un taux de 44.5% des 55-64 ans fin 2012, après une longue période de stagnation durant les années 2000. Parmi les évolutions positives, citons encore la création en 2011 d’une nouvelle instance, le Défenseur des Droits, qui intègre la Haute Autorité de Lutte contre les Discriminations et pour l’Egalité (Halde) et grâce auquel l’accès aux droits, désormais simplifié et rationnalisé, devrait être plus efficace dans la lutte contre les discriminations.

Cependant, la situation de l’emploi des jeunes reste préoccupante, et sans amélioration notable. A titre d’exemple, un jeune diplômé de niveau Bac + 5 ne décrochera son première poste qu’au bout d’un an de recherche d’emploi en moyenne, et ce malgré l’incitation législative dite du « contrat de génération* ». De même, le taux d’emploi des personnes issues de l’immigration, qu’elles soient de première ou seconde génération, évolue peu.

Avancée inédite

Ce tableau plutôt sombre est pourtant éclairé d’une réelle lumière : celle de l’entrée des femmes dans les organes d’administration des entreprises et des institutions : les conseils d’administration et de surveillance. Le point de départ est une loi de 2011, relative à la représentation équilibrée des femmes et des hommes au sein des conseils d’administration et de surveillance et à l’égalité professionnelle, qui prévoit l’instauration progressive de quotas pour aller vers la féminisation des instances dirigeantes des grandes entreprises. L’objectif à horizon 2017 est une proportion de 40% de femmes, obligation assortie de sanctions, financières et non financières, en cas de non-respect. C’est une véritable évolution culturelle qui s’est opérée, elle a ouvert la voie à des rôles majeurs pour les femmes.

La question des quotas

Les politiques de quotas n’ont pas forcément une image positive. Elles sont même fréquemment génératrices de polémiques. Leur mise en place peut même être contre-productive, comme en témoignent les tensions autours de quotas ethniques ou de castes en Inde ou en Malaisie. Totalement inexistantes jusqu’en 2008, puis adoptées par la Norvège, suivie par 11 autres pays depuis, ces politiques de quotas dans les conseils d’administration et de surveillance ont eu des impacts encourageants en faveur de l’égalité. On aurait pu penser que les femmes à ces postes souffriraient d’un manque de légitimité. Or, des études montrent que le fonctionnement et le travail des conseils d’administration s’en sont trouvés améliorés. Les femmes, recrutées pour leurs compétences, apparaissent moins conformistes, posent davantage de questions, rendent ces organes plus actifs

Cette obligation légale a également eu pour conséquence de mettre un  coup d’arrêt à un système de cooptation qui s’avérait délétère.  Les conseils d’administration avaient tendance à vivre en vase clos, on se cooptait par connaissance. L’injonction de quotas a ouvert des horizons vers des processus de recrutement professionnel, par des chasseurs de tête par exemple, pour constituer des bases de données de femmes hautement qualifiées et leur proposer ces postes. A l’avenir, il faudra vérifier que la constitution de viviers de compétences a initié un recrutement globalement plus professionnel des administrateurs, et pas forcément uniquement des femmes.

Effet positif de ruissellement

Grâce à cette loi, qui impose une « obligation de faire », sont apparues des offres de formation au métier d’administrateur, contribuant à la professionnalisation du rôle. Dans les années qui viennent, il faudra vérifier que les femmes des conseils d’administration constituent un appui ou un levier pour favoriser la parité dans les postes opérationnels de direction des entreprises, sans qu’il y ait besoin de nouvelles lois pour la parité. Déjà, hors du champ de la loi, on a vu des grands groupes, notamment parmi les entreprises cotées au CAC 40, mettre en place des objectifs de recrutement de managers femmes. Une pratique moins brutale qu’une obligation de quotas, mais dont les « effets de ruissellement » potentiels dans les entreprises, à tout niveau hiérarchique, seront, là encore, à vérifier.

* dispositif, voté en 2013, d’aide aux employeurs de droit privé pour favoriser l’emploi, dont celui des jeunes en contrat à durée indéterminée).

[su_note note_color=”#ebebeb”]Par Alain Klarsfeld et le chapitre “ Equality and Diversity in years of crisis in France”, coécrit avec Anne-Françoise Bender et Jacqueline Laufer, publié dans l’ouvrage “International Handbook on Diversity Management at Work – Country Perspectives on Diversity and Equal Treatment (second edition)”, mai.[/su_note]

[su_spoiler title=”Définition”]Egalité professionnelle : c’est l’égalité des droits et des chances entre les femmes et les hommes notamment en ce qui concerne l’accès à l’emploi, les conditions de travail, la formation, la qualification, la mobilité, la promotion, l’articulation des temps de vie et la rémunération (égalité salariale).[/su_spoiler]

[su_spoiler title=”Méthodologie”]Le chapitre « Equality and diversity in years of crisis in France », publié en 2014, fait le point sur les évolutions en France en matière d’égalité professionnelle et de diversité depuis la première édition de l’ouvrage « International Handbook on Diversity Management at Work – Country Perspectives on Diversity and Equal Treatment » en 2010. Le travail est le fruit d’une analyse des évolutions du cadre législatif européen et français et des différents rapports et publications référents sur le sujet, ainsi que d’un travail d’écoute et de suivi des think-tanks, associations et entreprises qui abordent les thèmes de lutte contre la discrimination et l’importance de la diversité.[/su_spoiler]