[su_pullquote align=”right”]Par Stéphanie Lavigne[/su_pullquote]

Contre toute attente, les entreprises européennes qui investissent le plus en Recherche & Développement (R&D) sont aussi celles dont le capital est dominé par les investisseurs institutionnels (notamment les fonds de pension anglo-saxons) quand on s’attendait à y trouver des investisseurs dits stratégiques (l’Etat ou les familles), réputés accompagner la politique de croissance – et donc d’innovation – des entreprises.

Avec l’arrivée des investisseurs institutionnels (dit « zinzins ») dans les années 90, les structures actionnariales ont radicalement changé en Europe. Les fonds de pension et gestionnaires pour le compte de tiers (mutual funds) détiennent aujourd’hui entre 50 et 60 % du capital des groupes côtés en Europe. Devenus des actionnaires de premier plan, ils ont imposé leurs principes de gouvernance et leur logique de création de valeur, avec des exigences de rentabilité du capital de l’ordre de 15 % au profit des ménages dont ils gèrent l’épargne.

Pour atteindre ces objectifs de rentabilité, les entreprises mettent en œuvre des stratégies « financiarisées », raccourcissant leur horizon de gestion pour distribuer annuellement, voire chaque semestre, toujours plus de valeur aux actionnaires. Mais ce temps court est-il compatible avec la croissance de l’entreprise et, en particulier, avec sa politique de R&D ?

Corrélation entre actionnariats et politiques de R&D

Dans cette recherche, nous avons cherché à établir une relation entre la structure actionnariale et les politiques d’innovation des grandes entreprises européennes.

S’agissant des études empiriques réalisées à ce jour, elles portent en quasi-totalité sur le marché nord-américain et ont produit des résultats contradictoires. Deux théories s’affrontent sur l’influence des investisseurs institutionnels : l’une affirme qu’ils ne jurent que par la rentabilité à court terme, n’encourageant pas de politiques d’innovations risquées ; l’autre, en revanche reconnaît le contrôle exercé par ces investisseurs et leur influence positive sur la politique d’innovation, garante à long terme de la rentabilité de l’entreprise.

Notre étude révèle qu’en Europe, plus le capital de l’entreprise est dominé par les investisseurs institutionnels plus il y a de dépenses en R&D quand nous nous attendions à trouver plutôt des investisseurs stratégiques, tels l’Etat ou les familles, connus pour accompagner les entreprises dans une patiente politique de croissance. Tout est finalement lié à l’horizon de gestion des investisseurs institutionnels : plus il est lointain, plus l’entreprise s’engagera dans une politique d’innovation. Cela paraît trivial mais ce résultat n’avait jamais été démontré dans un cadre multinational (échantillon de 324 entreprises européennes) et sur une durée aussi longue (tests entre 2002 et 2009).

Investisseurs « patients » contre investisseurs « impatients »

L’une des conclusions majeures de notre étude met en avant ce caractère nuisible du court-terminisme des actionnaires sur la stratégie d’innovation des entreprises lesquelles ont, au contraire, besoin du soutien d’investisseurs de long terme pour mener leurs politiques de R&D.

Nous avons analysé l’influence de l’horizon de gestion des investisseurs sur la stratégie d’innovation des entreprises européennes en opposant les entreprises au capital dominé par des investisseurs court-termistes ou « impatients » (horizon de gestion inférieur à 18 mois) aux entreprises où les investisseurs de long-terme ou « patients » sont majoritaires au capital. Nos résultats montrent que les investissements en R&D sont plus élevés quand le capital est dominé par les investisseurs patients, et inversement, plus faibles lorsque leur capital est entre les mains d’investisseurs impatients.

[su_note note_color=”#f8f8f8″]Par Stéphanie Lavigne et l’article “Ownership structures and R&D in Europe: the good institutional investors, the bad and ugly impatient shareholder” coécrit avec Olivier Brossard et Mustafa Erdem Sakinç, publié dans Industrial and Corporate Change (Volume 22, Number 4) – Oxford University Press, le 5 juillet 2013.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]L’étude sur l’actionnariat et les stratégies d’innovation des entreprises européennes démontre qu’il ne faut pas diaboliser les investisseurs institutionnels mais se focaliser sur une question cruciale : le turnover de leurs portefeuilles.
Fort de ce constat, les entreprises doivent apprendre à identifier rapidement l’horizon de gestion d’un nouvel investisseur institutionnel pour développer une relation privilégiée avec lui et tenter de contrer les investisseurs court-termistes.
[/su_box]

[su_spoiler title=”Méthodologie”]Les chercheurs ont étudié empiriquement la relation entre les structures actionnariales des plus grosses sociétés européennes et leurs politiques d’innovation. Ils ont analysé un échantillon composé des 324 sociétés les plus innovantes en Europe (présentes dans le EU Industrial R&D Investment Scoreboard entre 2002 et 2009), et ont croisé leurs dépenses en R&D avec des données financières et actionnariales issues de la base de données Thomson Financial.[/su_spoiler]

[su_pullquote align=”right”]Par Delphine Gibassier[/su_pullquote]

Outil de communication innovant, le reporting intégré permet aux entreprises de mettre en lumière l’ensemble de la valeur – y compris extra-financière – qu’elles créent. Une aubaine pour les organisations ayant fait le choix d’intégrer le développement durable à leurs pratiques !

Une part de plus en plus importante de la valeur créée par les entreprises n’est pas  intégrée dans leurs résultats financiers. Elles doivent donc se tourner vers des méthodes innovantes pour donner une image complète de leurs activités. Le reporting intégré remplit cette fonction et permet ainsi de mieux répondre aux attentes de l’ensemble des parties prenantes : clients, actionnaires, collectivités, ONG, etc. Et, puisqu’il implique une réflexion globale sur la création de valeur, il favorise également  dans une meilleure intégration des pratiques du développement durable dans les stratégies des entreprises. Les entreprises ainsi reconnaissent le lien entre l’innovation des produits verts et la croissance de leur chiffre d’affaires (Philipps en 2010), aussi bien que l’impact négatif de licenciements sur la perte de mémoire collective de l’entreprise (AEP en 2011).

Une belle opportunité pour la fonction comptable

Le reporting intégré répond à un projet ambitieux relier la performance économique, sociale et environnementale et la gouvernance de l’entreprise : Un réel défi. Les équipes comptables ont également ainsi l’opportunité d’intégrer à leur analyse les enjeux du développement durable. La démarche ne va pas de soi dans la mesure où elle nécessite d’acquérir des connaissances en matière d’environnement et d’adopter un regard global sur les activités de l’entreprise. Il n’est pas toujours simple de compter du CO2 ou des litres d’eau à la place des euros ! Toutefois, de plus en plus de multinationales (Danone, Engie ou Unilever par exemple) ont compris qu’intégrer la problématique du développement durable dans leurs activités industrielles et commerciales était une des conditions même de leur croissance future, et même de leur survie. Pour elles, passer d’une stratégie environnementale à une comptabilité environnementale est alors logique. Elles invitent de plus en plus leurs parties prenantes (collectivités, ONG, clients, etc.) à participer à l’élaboration de leur stratégie, elles conçoivent et fabriquent des produits éthiques, réalisent des investissements durables, etc.

Pour piloter ces initiatives, les contrôleurs de gestion ont dû mettre en place des modalités de calcul adaptées. Le reporting intégré donne l’occasion d’aller plus loin en valorisant le capital social, environnemental et économique de l’entreprise. Cela commence généralement par un produit, une gamme de produits ou une région, puis la démarche s’étend progressivement à l’ensemble des activités. Le bénéfice est alors réel : le reporting intégré devient un instrument qui favorise la transformation des pratiques (production, marketing, RH, etc.), permettant ainsi d’améliorer le processus de création de valeur.

Une démarche globale et unique à la fois

En Afrique du Sud, les entreprises sont légalement obligées de mettre en place un reporting intégré. Au Brésil, elles ne sont pas soumises à une contrainte réglementaire, mais à une injonction des marchés (pression des investisseurs). Dans ces deux pays, les bonnes pratiques et les retours d’expérience sont donc nombreux. Ils le sont moins en Europe, où rien n’oblige les entreprises à mettre en œuvre un reporting intégré. Le sujet a beau faire l’objet de recherches depuis 40 ans, un tout petit nombre d’entreprises (Novo Nordisk, Vancity, Natura) s’y était vraiment attelée avant la naissance de l’IIRC qui, depuis 2010, met de nombreux outils à leur disposition. Mais le large panel d’outils existants ne peut remplacer le travail de fond qu’elles doivent mener. Car l’idée de cette approche  ne vise pas simplement à uniformiser les pratiques des entreprises grâce à des outils standardisés (de toute façon en évolution constante). Elle consiste également à refléter leur mode de création de valeur propre et leur business model unique.

C’est toute la particularité du reporting intégré : il est à la fois global (des entreprises du monde entier et de tous secteurs s’y engagent) et spécifique à chacune (car aligné sur leurs activités). Aussi, en Europe, bien que des groupes de travail existent sur le sujet, les entreprises ont tendance à imaginer leurs règles de reporting  de façon isolée car c’est ce qui leur permet de montrer en quoi elles sont uniques. Au fil des années, les firmes les plus en avance sur le sujet ont ainsi pu développer des expertises spécifiques (par exemple pour comptabiliser les litres d’eau consommés ou tenir compte de leur impact sur des populations locales). Elles sont aujourd’hui fières d’avoir réussi à mettre en place une comptabilité environnementale performante avec des outils maison. L’IIRC ne cherche d’ailleurs pas à leur imposer de standard, elle adhère pleinement aux démarches innovantes de ces multinationales. Son ambition étant que le reporting intégré se développe dans le plus grand nombre d’entreprises.

[su_note note_color=”#f8f8f8″]Par Delphine Gibassier et l’article « IR, it’s like God, no one met Him but everybody talks about Him », de Delphine Gibassier, Michelle Rodrigue et Diane-Laure Arjaliès (à paraître).[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]En Europe, aux États Unis et en Australie, les firmes qui s’engagent dans cette démarche le font de manière volontaire, parce qu’elles y voient l’opportunité de mettre en lumière l’ensemble de leurs activités tout en favorisant l’intégration des enjeux de développement durable. Les travaux observent depuis leurs tout débuts les entreprises pionnières dans ce mode de reporting, constituent une aide précieuse pour toutes les organisations souhaitant s’y engager.[/su_box]

[su_spoiler title=”Définition”]Le reporting intégré est un rapport concis qui mêle des données financières et extra-financières  et qui vise  à démontrer aux investisseurs, ainsi qu’à l’ensemble des parties prenantes, la capacité de l’entreprise à créer de la valeur d’une part et à maîtriser ses risques à moyen et long termes d’autre part. Le concept est promu par l’International Integrated Reporting Council (IIRC), une association internationale basée à Londres. Créée en 2010, cette association rassemble des entreprises pilotes, des investisseurs, des promoteurs de normes de reporting ainsi que de grands cabinets d’audit.[/su_spoiler]

[su_spoiler title=”Méthodologie”]Nous avons étudié la mise en œuvre du reporting intégré par une multinationale (nom confidentiel) qui participe au programme de l’International Integrated Reporting Council (IIRC). Les travaux s’appuient également sur sa collaboration avec l’IIRC et les discussions approfondies menées avec différentes entreprises qui, à travers le monde, cherchent à mettre en œuvre un reporting intégré.[/su_spoiler]

[su_pullquote align=”right”]Par Kévin Carillo[/su_pullquote]

Le big data est souvent présenté comme le nouvel eldorado. Dans un contexte économique national plutôt défavorable, il est perçu comme un remède miracle, qui pourrait permettre aux entreprises de créer de la valeur et d’acquérir un avantage compétitif. Mais au-delà du buzz, y a-t-il une réalité ‘big data’? Et comment ce phénomène peut-il redéfinir le fonctionnement et la nature même des entreprises ?
La nature insaisissable du big data, ainsi que la difficulté à le définir de manière précise, semblent être en partie dues à l’usage même du terme ambigu ‘big data’ dont l’origine est jusqu’à ce jour toujours débattue. S’ajoute à cela une allusion indirecte à « Big Brother » soulevant une touche d’hostilité quant à la perception du big data par les médias et le grand public. Il est donc important de s’affranchir du buzz ‘big data’ si l’on veut réellement appréhender le changement qui est en train de s’opérer dans le monde de l’entreprise et globalement dans notre société.

A l’origine du phénomène big data

La congruence de plusieurs phénomènes technologiques est responsable de cette accélération du volume de données générées. Tout d’abord, grâce au web 2.0, internet est passé d’une phase statique dans lequel le contenu web était figé et uniquement produit par des développeurs et autres webmasters, à une phase dynamique dans laquelle les utilisateurs ont acquis la capacité de générer du contenu via les blogs, les sites de partage de vidéos et bien évidemment les réseaux sociaux.

[su_button url=”http://www.hbrfrance.fr/chroniques-experts/2015/11/8982-le-big-data-une-revolution-qui-transforme-en-profondeur-lentreprise/” target=”blank” style=”flat” background=”#f24e58″ size=”4″ radius=”0″]Lire l’article complet sur le site web HBR ›[/su_button]

[su_pullquote align=”right”]Par Geneviève Cazes-Valette[/su_pullquote]

Cet article constitue le second volet d’une série sur la consommation de viande en France. Le premier volet se proposait d’analyser les résultats d’une étude* réalisée en juin dernier. Ces résultats témoignaient d’une baisse de la consommation carnée dans l’Hexagone ces dernières années, et de l’intention d’un nombre grandissant de personnes de réduire cette consommation à l’avenir.

La plupart des travaux de recherche expliquent – tout particulièrement depuis la première crise de la « vache folle » du printemps 1996 –, la baisse de consommation de viande en se référant au risque perçu par les consommateurs à l’idée d’en manger. Ce « risque perçu » peut être motivé par différentes raisons. Avant même la crise de la « vache folle », le danger de cette consommation sur un plan médical était déjà clairement évoqué, principalement via l’excès de cholestérol. Depuis, c’est la question du lien entre consommation carnée et cancer qui préoccupe, comme en témoignent les récentes annonces de l’OMS.

Une autre source de risque, apparue récemment dans les médias, concerne les menaces que l’élevage fait peser sur l’environnement, à cause des émissions de gaz mais aussi de l’utilisation de quantités de protéines végétales pour nourrir les troupeaux et ne produire au final que peu de protéines animales. Enfin, si, dès 1996, la question du risque éthique lié à la mort infligée à un animal pour le manger était présente, on constate depuis une préoccupation grandissante concernant les conditions de vie de l’animal avant sa mort (dans ce cadre précis, les élevages intensifs s’opposent aux extensifs).

Un nouvel état d’esprit chez les mangeurs

Notre étude avait pour but de déterminer si la fréquence de consommation de viande, ainsi que la baisse de celle-ci dans le passé ou à l’avenir, pouvait s’expliquer par le risque perçu, lui-même influencé par la préoccupation des répondants concernant leur santé, la protection de l’environnement ou le bien-être animal.

Que disent les résultats bruts relatifs à ces différentes mesures ? Sur une échelle de 1 à 7 points (le score le plus bas signifiant « pas de risque perçu », « pas de préoccupation envers la santé, l’environnement ou le bien-être animal »), on note que le risque perçu à consommer de la viande est globalement très moyen (3,7/7). Au niveau des différentes préoccupations liées à ce risque, les chiffres sont les suivants : 5,43/7 en ce qui concerne la préoccupation des répondants à l’égard de l’environnement, 5,51/7 pour leur propre santé et, 5,86/7, pour le souci du bien-être animal. Ces données nous semblent refléter un nouvel état d’esprit chez les mangeurs, assez différent du discours médiatique centré sur les arguments santé.

Viande Francais

La question du bien-être animal préoccupe une part grandissante des consommateurs français. iStock Photos

L’enjeu éthique de la qualité

La fréquence de consommation et son éventuelle diminution dépend-elle bien du risque perçu ? Oui : plus on perçoit de risque, plus on aura tendance à s’abstenir fréquemment de viande maintenant et à l’avenir. Le risque perçu dépend-il des facteurs que nous avions prévu ? Pas tout à fait : la préoccupation pour sa santé en général et le souci du bien-être animal n’augmentent pas le risque perçu. Seule la préoccupation pour l’environnement, en particulier pour la biosphère (règnes végétaux et animaux), augmente le risque perçu. En revanche, la fréquence actuelle de consommation de viande ne dépend pas seulement du risque perçu, mais aussi du souci du bien-être animal : plus cette question est importante aux yeux des répondants, moins souvent ils consommeront de la viande.

Ces résultats ne préfigurent probablement pas une augmentation massive du nombre de végétariens ; en revanche, ils doivent interpeller les acteurs de la filière et en particulier les éleveurs : l’élevage intensif risque d’être de moins en moins bien toléré. Il semblerait qu’une partie des mangeurs de viande se dirigent vers une consommation moindre, mais de plus haute qualité. Un phénomène qu’a connu le milieu viticole à la fin du siècle dernier. Et qui permettrait peut-être aux éleveurs extensifs de mieux vivre de leur travail ? À condition que les déclarations des répondants soient suivies d’actes, et qu’ils acceptent de payer le prix d’une production naturellement moins productive…

* Enquête auprès de 500 personnes représentatives de la population française de 15 ans et plus, conduite online avec le panel Toluna du 29 mai au 1er juin 2015 et financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay). Elle a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).

Par Geneviève Cazes-Valette, Anthropologue, Professeur de marketing, Toulouse Business School

La version originale de cet article a été publiée sur The Conversation.

[su_pullquote align=”right”]Par Laurent Germain et Anne Vanhems[/su_pullquote]

Pour mieux comprendre les bulles spéculatives, nous nous sommes penchés sur la personnalité des traders et avons remarqué que certains n’agissent pas de façon logique. Mais ces derniers ne sont pas les seuls à avoir une influence sur les marchés financiers.

Pour chaque transaction, les traders doivent prendre en compte de nombreux paramètres : les tendances du marché, les stratégies des compétiteurs, les faits d’actualité. Mais parfois la situation dérape : d’autres éléments moins rationnels influencent leur décision.

L’étude des personnalités pour expliquer certains événements

Malgré leur expérience, les individus ont parfois des comportements biaisés. Ainsi, on peut observer des réactions disproportionnées, comme l’achat d’actions à un prix beaucoup trop élevé par rapport à leur valeur intrinsèque. Ce sont ces décisions illogiques qui engendrent les bulles spéculatives puis les krachs lorsque tout le monde veut vendre ses biens simultanément et que leur valeur s’effondre.
S’il est maintenant admis que certains traders n’agissent pas rationnellement, il reste difficile d’envisager que ce soit également le cas pour les market makers (animateurs de marché). Ces market makers sont les organismes (banques d’investissement pour la plupart), ou les personnes, qui fixent les prix à l’achat et à la vente des actifs : on dit qu’ils cotent les actifs. Pourtant, on peut montrer que certains de ces market makers prennent également de mauvaises décisions.
Les market makers sont réputés plus expérimentés et plus aguerris. Ils sont payés pour avoir un coup d’avance et les traders sont entraînés à décoder leurs dernières stratégies. Comme ce sont des meneurs de jeu, il était difficile d’admettre que ces market makers pouvaient agir de manière illogique, en augmentant les prix lorsque les signaux sont au rouge, ou, à l’inverse, à baisser les prix des actions dans une situation de demande élevée.
Pour étudier l’influence de ce problème, nous avons isolé les deux biais principaux. Le premier biais, lié au degré d’optimisme, pousse l’agent à se tromper sur la tendance du marché. Ainsi en présence d’indices qui montrent qu’une action va perdre de la valeur, il peut penser qu’elle remontera bientôt. Le second biais, associé au niveau de confiance, l’induit à se tromper sur ses propres compétences. Il a alors tendance à faire beaucoup varier le prix de l’action ce qui impacte la volatilité du marché. Or, plus la volatilité est élevée, plus les gains et les pertes peuvent être importants.

Les effets de ces biais et les conséquences sur les marchés

Tout d’abord, nous avons constaté que les biais des market makers influencent la profondeur et la liquidité du marché. Un marché profond est un marché où le prix reste relativement stable. Un marché liquide est un marché où les prix ne sont pas fixés de manière agressive (il y a alors beaucoup d’achats et de reventes).
Par exemple, un market maker optimiste pense que l’information qu’il a reçue est plus sûre que ce qu’elle n’est en réalité et considère que son jugement est moins crucial dans sa décision. Il aura alors tendance à surestimer le prix de l’actif, et les traders (ceux qui achètent et revendent) vont diminuer le nombre de transactions qu’ils effectuent. Et lorsque cet animateur de marché a trop confiance en son appréciation, il cote l’actif de manière moins agressive et augmente ainsi la liquidité du marché. La crise de la tulipe a été la première bulle spéculative et reste emblématique de l’emballement du marché financier. En 1636-1637, certains bulbes ont été vendus à plus de quinze fois le salaire annuel de l’horticulteur et le volume échangé sur les marchés était complètement déconnecté de la quantité réelle de bulbes disponibles.
Le premier constat de cette étude est que des market makers trop ou pas assez confiants peuvent faire des profits ou des pertes. Lorsque le market maker est pessimiste, mais a confiance en son jugement, on observe des variations de prix plus faibles. Mécaniquement les prix augmentent, et le volume échangé par les traders rationnels est alors plus faible. Pourtant, nous constatons que ce marché profite ainsi aux market makers : la hausse des prix n’impacte pas la demande globale.
Les résultats de cette recherche montrent aussi que si les traders ayant des comportements biaisés provoquent des situations de déséquilibre, les market makers trop sûrs d’eux augmentent la probabilité que cela arrive. Par exemple, un animateur optimiste amplifie l’excès de trading, ce qui signifie que le nombre de transactions est trop important. On peut faire le parallèle avec la bulle internet, lors de laquelle les traders comme les animateurs se sont vus à la veille d’une nouvelle économie et donc d’une croissance extrême. Les prix des actions des startups technologiques se sont alors envolés, décorrélés des bénéfices réels des entreprises, et pourtant le nombre de transactions ne cessait d’augmenter. Le krach de mars 2000 a entraîné une récession du secteur mais aussi de l’économie en général, avec des pertes dépassant les profits réalisés.
Par ailleurs, nous avons prouvé un résultat inédit : la présence de market makers au comportement biaisé bénéficie parfois aux traders peu confiants. Dans ce cas, un trader qui manque de confiance peut avoir de meilleurs résultats qu’un trader qui agit correctement. Prenons l’exemple d’une action dont la valeur ne va pas évoluer. Le market maker optimiste pense qu’elle va augmenter, et donc fixe un prix élevé. Un trader pessimiste pense qu’elle va baisser, et vend ses actions, alors qu’un trader «standard» va attendre. Le trader pessimiste réalise des profits et pas le trader « standard ».
On peut conclure que notre recherche montre que la volatilité observée ne vient peut-être pas que des traders, mais peut aussi être amplifiée par l’attitude des animateurs de marché. En effet, la dernière conclusion de l’étude est que dans les cas extrêmes de niveau de confiance, on observe une volatilité et un volume de transaction excessifs. Dans une situation où certains traders manquent de confiance, les market makers qui manquent eux aussi de confiance vont entraîner les traders rationnels à effectuer trop de transactions.
Nous travaillons maintenant sur un nouveau modèle plus complexe qui considère que les animateurs de marché agissent les uns en fonction des autres : c’est-à-dire qu’ils ne se comportent plus comme des boîtes noires indépendantes mais qu’ils tiennent compte des stratégies de leurs homologues.

[su_note note_color=”#f8f8f8″]Par Laurent Germain et Anne Vanhems et l’article « Irrational Market Makers », coécrit avec Fabrice Rousseau et Anne Vanhems, publié dans Finance vol. 35, no 1, avril 2014. Cet article a gagné le Prix 2014 délivré par l’Association Française de Finance.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Ces résultats inédits ouvrent la porte à de nouvelles stratégies dans lesquelles les traders et les animateurs de marché doivent considérer que, au sein de leurs pairs comme au sein de la partie adverse, certains agents peuvent prendre des décisions biaisées.
Les banques se sont montrées très intéressées par l’étude à la sortie de l’article, on peut penser que cette théorie a été retenue dans leurs manœuvres de trading.
[/su_box]

[su_spoiler title=”Méthodologie”]Notre équipe de chercheurs a établi un modèle mathématique simulant les effets des biais psychologiques sur les marchés. Nous avons établi deux schémas de référence : un premier où tous les acteurs sont rationnels et un second comprenant des traders rationnels et irrationnels traitant avec des animateurs de marché rationnels. Ils permettent d’illustrer dans un premier temps l’impact de l’irrationalité des traders. Puis nous avons comparé ces résultats à une simulation où tous les animateurs de marché sont irrationnels.[/su_spoiler]

Afin de marquer des points dans la compétition mondiale pour attirer les talents, les entreprises ont tout intérêt à mener une politique de ressources humaines spécifique à destination des expatriés indépendants. Akram Al Ariss, enseignant-chercheur à Toulouse Business School, a réalisé une revue de la recherche scientifique sur ce sujet essentiel.

L’ampleur du phénomène des migrations internationales ne se dément pas depuis plusieurs années : de 214 millions en 2010, le nombre de personnes vivant hors de leur pays d’origine est passé à 232 millions et pourrait encore augmenter de 96 millions de personnes d’ici à 2050 selon les estimations de l’Organisation des Nations Unies. Cette population extrêmement hétérogène par ses origines géographiques, culturelles mais aussi par son niveau d’éducation et de qualification, a été jusque-là peu étudiée par la recherche.

Les expatriés indépendants, un vivier de compétences

Pourtant, ces expatriés constituent un vivier de talents et de compétences pour les pays d’accueil et pour les entreprises qui pourrait se révéler un atout dans la compétition internationale. C’est en  particulier le cas  des expatriés indépendants, constitués d’individus qui se sont déplacés de leur propre initiative, en général diplômés, expérimentés, avec un important bagage linguistique et culturel. Encore faut-il parvenir à les identifier, à les recruter et à les fidéliser en tenant compte de leurs aspirations. Cela nécessite, de la part des entreprises, de mettre en place une stratégie de ressources humaines spécifiquement adaptée à leur situation.

C’est un enjeu particulièrement important pour les entreprises qui se développent à l’international. Pour des raisons de coûts, au schéma classique d’expatriation de leurs salariés dans des conditions très favorables de salaire et d’avantages de toute sorte, elles ont substitué depuis plusieurs années un modèle « local-plus » plus économique, dans lequel le salarié démissionne pour être réembauché sur la base d’un contrat local, à des conditions nettement moins avantageuses. Mais ce système, qui engendre une frustration et une démotivation compréhensibles, conduisant souvent à une démission rapide, est contreproductif. Car en réalité, plus que le salarié, c’est l’entreprise qui en sort perdante à long terme : l’économie réalisée n’est qu’apparente, puisque la stratégie « local-plus » crée un turn-over préjudiciable à l’activité, conduit à une fuite des talents de l’entreprise et trouble son image auprès des candidats à l’expatriation. Le recrutement d’expatriés indépendants constitue sans doute une alternative intéressante pour sortir de cette impasse, puisque, déjà expatriés pour des raisons non professionnelles, ils accepteront bien plus volontiers de travailler aux conditions du marché local.

Lever les freins à leur intégration professionnelle

La question se pose en fait pour toutes les entreprises : comment cibler et toucher ces profils à haute valeur ajoutée ? Tout simplement en tenant compte de leurs problématiques spécifiques. Les situations diffèrent selon les parcours, les pays d’origine et les pays d’accueil, mais les études ont montré que les expatriés indépendants font face à un certain nombre de barrières et de contraintes qui limitent leurs possibilités d’intégration. Parmi les plus communes, on citera les politiques migratoires des États, concernant notamment les visas et les permis de travail, la reconnaissance ou non des qualifications et des expériences professionnelles, la maîtrise de la langue et des codes de communication et, plus sournoisement, les discriminations de toutes sortes. Ces difficultés sont d’ailleurs accentuées lorsqu’il s’agit de femmes, ce qui est le cas aujourd’hui d’un expatrié indépendant sur deux. La première responsabilité des entreprises est de reconnaître ces obstacles, et ensuite d’aider les expatriés indépendants à les contourner ou à les surmonter afin de faciliter leur embauche et de leur permettre de trouver un travail correspondant à leurs compétences.

Une stratégie RH différenciée

Le rôle de la politique de ressources humaines est fondamental sur deux points particuliers : les procédures de recrutement et de sélection, d’une part, et l’adaptation culturelle, d’autre part. En matière de recrutement, les pratiques doivent s’adapter à cette population, afin non seulement de ne pas l’exclure (par exemple en négligeant ses canaux de communication préférentiels ou en exigeant une expérience professionnelle locale que, par définition, elle n’a pas), mais aussi de la séduire (par exemple en ne se cantonnant pas à une description technique du poste proposé mais en donnant une information globale sur les perspectives de vie qui y sont liées). Pour l’entreprise, le bénéfice principal de cette approche proactive et différenciée est de ne pas passer à côté de cette main d’œuvre qualifiée.

La seconde priorité est ensuite de les fidéliser dans l’entreprise en facilitant leur intégration et leur adaptation culturelle. La recherche n’apporte pas de réponse globale et définitive sur les raisons qui motivent un expatrié indépendant à rester en poste, d’autant plus que ces raisons peuvent varier d’un pays à l’autre. Cependant, le management des ressources humaines doit s’attacher à les comprendre afin de mettre en place des solutions adaptées.

Ce sont là quelques pistes issues des résultats de la recherche. L’élaboration d’une stratégie RH pertinente et adaptée en direction des expatriés indépendants est en tout cas indispensable. C’est, quoi qu’il en soit, une politique gagnant-gagnant, pour les expatriés eux-mêmes, bien sûr, dont le pari de la mobilité se voit ainsi couronné de succès, mais tout autant pour les entreprises, qui parviennent à attirer les meilleurs profils, ce qui leur donne un avantage décisif dans la compétition mondiale. En effet, cette main-d’œuvre internationale est source de diversité, de créativité et d’innovation. Les entreprises gagnantes seront celles qui sauront, au-delà des stéréotypes, des discriminations et des barrières de tout ordre, se montrer à l’écoute de ces ressources humaines circulant à travers le monde.

Par Akram Al Ariss et les articles « Self-initiated expatriation and migration in the management litterature », coécrit avec Marian Crowley-Henry (Department of Management, National University of Ireland Maynooth), publié dans Career Development International (2013) ; « Human resource management of international migrants : current theories and future research », coécrit avec Chun Guo (Department of Management, Sacred Heart University, Fairfiels, CT, USA), publié dans The International Journal of Human Resource Management, 2015. A lire (ouvrages) : – Self-Initiated Expatriation : Individual, Organizational and National Perspectives, Akram Al Ariss, Routledge, 2013. – Global Talent Management : Challenges, Strategies, and Opportunities, Akram Al Ariss, Springer, 2014.

[su_pullquote align=”right”]Par Geneviève Cazes-Valette[/su_pullquote]

Les Français sont de grands amateurs de viande : ils en ont consommé 88,7 kg en 2011, contre une moyenne mondiale de 42 kg. Cette consommation de viande de boucherie (hors charcuterie et plats cuisinés) marque cependant le pas depuis 1998. Et il fait peu de doute que les récentes annonces de l’OMS quant à l’incidence avérée ou probable de la consommation de charcuterie et de viande rouge sur la santé vont encore accélérer le processus de baisse déjà enclenché.

À travers une récente étude menée auprès de 500 personnes de 15 ans et plus, représentative de la population française (1), conduite online avec le panel Toluna du 29 mai au 1er juin 2015, nous (2) avons cherché à mieux comprendre les comportements passés, présents et prévus dans l’avenir en matière de consommation carnée, quelle qu’en soit la forme (brute ou transformée).

Nos données – déclaratives – corroborent les tendances énoncées plus haut et mentionnées par d’autres études. Les Français apprécient la viande : ils sont près de 24 % à en manger au moins une fois par jour, 34 % tous les jours ou presque, 33 % plus d’une fois par semaine et seulement 7 % plus d’une fois par mois. Quant aux végétariens déclarés, ils ne sont que 2,4 %.

La tranche d’âge des 15-24 ans se caractérise par des comportements extrêmes : ils sont 30 % à manger de la viande au moins une fois par jour, et près de 10 % à être végétariens (ou végétaliens). À l’opposé, les 50 ans et plus affichent des comportements plus nuancés : seulement 18 % d’entre eux mangent de la viande au moins une fois par jour, mais ils sont moins de 1 % à être végétarien. En termes de genre, la viande est clairement virile : les femmes en consomment moins souvent et la grande majorité des végétariens sont des végétariennes. Au niveau des catégories socioprofessionnelles, trois groupes se distinguent nettement : les cadres et professions intellectuelles supérieures par une surconsommation, les retraités par une plus faible fréquence et les personnes sans activité professionnelle par un taux de végétarisme plus élevé.

Une baisse amorcée depuis plusieurs années

Les Français ont toutefois revu leur consommation à la baisse au cours des trois années précédentes : si 45 % déclarent n’avoir rien changé à leurs habitudes, seulement 8,4 % disent avoir augmenté leur fréquence de consommation, contre 46,6 % qui l’ont diminuée. Si l’effet sur la baisse des quantités globales de viande consommée n’est pas aussi intense que ces chiffres pourraient le laisser présager, c’est parce que les personnes ayant diminué leurs apports carnés s’observent plus souvent parmi les consommateurs moyens à faibles (ceux qui consomment seulement plus d’une fois par semaine ou par mois).

Les plus de 50 ans, les femmes et les retraités sont plus nombreux à avoir baissé leur consommation. À contrario, ceux qui l’ont augmentée figurent chez les moins de 35 ans, les hommes, les cadres et les employés. À noter toutefois que les 15-24 ans se caractérisent, comme déjà évoqués, par des comportements contrastés : plus nombreux que la moyenne à avoir accru leur consommation, ils sont aussi plus nombreux à avoir adopté le végétarisme.

Fruits Legumes
Les futurs végétariens se recrutent chez les femmes et les moins de 25 ans. iStock Photos

Les intentions de comportement pour les trois années à venir vont dans le sens de ces résultats, tout en étant plus modérées : près de 6 % des Français projettent d’augmenter leur fréquence de consommation, 57 % de ne pas en changer et 37 % de diminuer. Globalement, les choix passés se confirmeront à l’avenir. Un gros tiers de ceux qui disent avoir augmenté leur consommation dans le passé déclarent toutefois avoir l’intention de diminuer à l’avenir, alors que seulement 5 % de ceux qui avaient diminué ont l’intention de l’augmenter. La tendance à la baisse de fréquence de consommation est donc nette et devrait se confirmer. Elle concerne surtout les femmes et les moins de 25 ans qui sont près de 10 % à manifester l’intention d’arrêter totalement de consommer de la viande, alors que, dans le même temps, les actuels végétariens de cette tranche d’âge comptent tous persister dans leur choix.

Au-delà de ces comportements, quelles sont les raisons invoquées par les répondants pour expliquer la baisse de leur consommation ou leur intention de le faire ? Les réponses sont multiples. À l’instar de l’étude publiée par Le Monde, ce sont les raisons de budget et de santé qui arrivent en tête (respectivement pour 45 et 40 % des répondants), puis la protection de l’environnement (28 %), la maîtrise de son poids (24 %), la pitié pour les animaux d’élevage (23 %) et enfin les scandales du type « horsegate » (22 %). Les diminutions prévues pour l’avenir sont, elles, d’abord liées à la santé et au budget (respectivement 48 et 39 %), puis à l’environnement et aux animaux (resp. 38 et 37 %) et enfin aux scandales alimentaires et à la maîtrise du poids (resp. 27 et 24 %).

(1) Représentativité assurée par quotas sur âge, sexe du répondant et CSP du responsable du foyer.
(2) Cette étude, financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay), a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).

Par Geneviève Cazes-Valette, Professeur de marketing, Toulouse Business School

La version originale de cet article a été publiée sur The Conversation.

Prof. Gaël Gueguen à TBS
Prof. Gaël Gueguen à TBS

En s’appuyant sur les résultats du Tour de France cycliste, cette étude montre que les différences culturelles entre coureurs d’une même équipe n’ont pas d’impact sur la performance. Un constat qui, sous certaines conditions, est transposable au monde du travail où les questions de diversité font encore l’objet de débats.

Dans quelle mesure peut-on transposer au sport, notamment le cyclisme, certains concepts bien connus du management (collaboration au sein d’une équipe, stratégie, concurrence, etc.) ? L’objectif final étant de mieux comprendre le fonctionnement du cyclisme, mais également, par effet de ricochet, d’améliorer notre connaissance de l’entreprise. Début de réponse avec les travaux de Gaël Gueguen, qui se demande si la diversité culturelle des équipes participant au Tour de France (évaluée notamment par le nombre de pays représentés) impacte leurs résultats sportifs.

La diversité, un risque pour la cohésion d’équipe

Le sport de haut niveau nécessite de faire appel aux meilleures ressources, qu’elles soient humaines ou matérielles. Pour un budget donné, une équipe de haut niveau recherchera les meilleurs athlètes possibles et sera donc incitée à faire son recrutement au sein d’un marché mondial. Dans le cadre du Tour de France, où l’internationalisation des équipes s’est accélérée ces dernières années, on constate ainsi entre 1987 et 2009 une diminution de la part des pays « terres de cyclisme » (France, Italie, Espagne, Belgique et Pays-Bas) au profit d’équipes constituées de cinq nationalités différentes ou plus. Et la tendance se confirme puisqu’en 2015, pour la première fois, une équipe sud-africaine et deux Erythréennes participaient au Tour. Mais cette mondialisation qui touche le sport professionnel n’est pas sans risque : la diversité culturelle peut poser des problèmes de coordination (difficultés de compréhension mutuelle par exemple quand les langues parlées au sein des équipes varient) et nuire à la cohésion des coureurs (différences de valeurs et d’attitudes). La question est d’autant plus cruciale dans le cyclisme, discipline pour laquelle l’importance des sponsors et le caractère mondial des compétitions, impose parfois de recruter des sportifs étrangers parce que leurs pays sont ciblés par les marques.

Dans le cyclisme, la diversité culturelle ne nuit pas à la performance

Doit-on privilégier, au sein des équipes de haut niveau, des sportifs de cultures proches ou peut-on s’affranchir de cette dimension ? Un groupe focalisé sur une tâche précise et composé de ressources complémentaires rares (grimpeurs exceptionnels, sprinteurs, rouleurs hors-pair, ou leaders plus polyvalents …) devant se coordonner en situation de compétition, ne risque-t-il pas de souffrir d’une trop grande diversité de ses membres ? Il semble que non. La diversité culturelle n’a aucun impact sur les résultats sportifs. Les coachs d’équipes cyclistes peuvent privilégier la valeur d’un coureur, quelle que soit sa nationalité, sans avoir à craindre une différence culturelle forte. Explication possible : le professionnalisme des coureurs et de leurs managers compensent les problèmes de coordination. En effet, comme la synchronisation des efforts de chacun est supervisée par un directeur sportif, les rôles des membres de l’équipe sont parfaitement définis. L’entraînement régulier permet par ailleurs de transformer chaque tâche des cyclistes en routine parfaitement maîtrisée.

Du cyclisme au monde de l’entreprise, il n’y a qu’un pas

Une entreprise est composée de ressources humaines rarement homogènes : sexe, âge, expérience, nationalité, salaires, etc. L’importance de ces différences est-elle plutôt favorable ou défavorable à la performance des équipes de travail ? L’analyse des travaux sur la diversité dans l’entreprise montre des résultats contradictoires. Par exemple, la diversité des membres d’une équipe peut dans certains cas accroître sa créativité et améliorer la prise de décisions (les opinions diverses favorisant l’émergence de bonnes idées). Dans d’autres, elle peut nuire à la cohésion, à la confiance et à la communication avec pour corolaire une hausse des tensions et des conflits. L’absence de lien entre diversité culturelle et performance dans le cyclisme peut-elle aider à mieux comprendre ce qui se passe dans l’entreprise ? Sans doute, mais sous certaines conditions. L’épreuve du Tour de France est en effet un cas d’étude bien particulier, ce qui limite sa généralisation. D’abord parce que, dans le cyclisme professionnel, les membres des équipes sont extrêmement spécialisés. Ensuite parce que l’épreuve reine du cyclisme met en compétition des équipes seulement composées de leurs neuf meilleurs éléments parmi la trentaine de coureurs sous contrat (et non de la totalité de son effectif, comme c’est le cas au sein d’une entreprise).

Reste que la méthodologie utilisée peut parfaitement être transposée pour étudier l’impact de la diversité culturelle des équipes de top managers sur la performance des multinationales. Une approche intéressante alors que de plus en plus d’entreprises diversifient leur comité exécutif à mesure qu’elles se développent à l’international. Dans une multinationale comme L’Oréal, par exemple, le recrutement de managers issus de pays divers est considéré comme le principal facteur de succès des lancements de produits dans les pays émergents. Et pour limiter le « syndrome Tour de Babel »*, les équipes multiculturelles sont organisées autour d’un leader qui, grâce à ses propres expériences dans des pays variés, sait gérer les tensions interculturelles**.

* Difficulté à coordonner les efforts en raison des différentes langues parlées dans l’équipe.
** “L’Oréal Masters Multiculturalism” de Hae-Jung Hong et Yves Doz (Harvard Business Review, juin 2013).

Par Gaël Gueguen et l’article « Diversité culturelle et performance des équipes sportives de haut niveau : le cas du Tour de France », (Management International, 2011).

[su_pullquote align=”right”]Par Gregory Voss[/su_pullquote]

La réforme lancée en 2012 par l’Union européenne (UE) en vue d’assurer un haut niveau de protection des données à caractère personnel pour les citoyens des 28 pays membres verra-t-elle le jour en 2017 ? C’est possible, mais il reste encore à trouver un accord entre le Parlement européen, le Conseil de l’UE et la Commission européenne : c’est la phase du trilogue.

Depuis juin 2015, ces trois institutions de l’UE négocient pour parvenir à un texte unique, le Règlement général sur la protection des données (RGPD). Il existe encore des points de désaccord entre le Parlement et le Conseil, en particulier sur l’obtention du consentement individuel concernant le traitement des données personnelles, les droits et devoirs des collecteurs de données, le montant des amendes en cas d’infraction.

Dès 2012, la Commission européenne a proposé une nouvelle législation sur la protection des données à caractère personnel. Mais ce texte voté par le Parlement européen le 12 mars 2014, attend désormais d’être validé par le Conseil de l’UE. Cette réforme permettra de protéger les citoyens européens et leurs données personnelles même pour les entreprises transnationales responsables du traitement des données via Internet dont le siège ne se trouve pas dans l’UE. Si le niveau de protection des données personnelles en Europe est en général élevé, le niveau des sanctions financières est trop bas, contrairement à ce qui se passe aux Etats-Unis.

Dès que les trois instances de l’UE se seront mises d’accord sur un projet de texte, celui-ci ne pourra être adopté qu’après deux lectures consécutives du même texte par le Parlement, directement élu par les citoyens, et le Conseil qui réunit les gouvernements des 28 états membres. Une fois adopté (sans doute en 2016, même si certains penchent pour une adoption fin 2015), il deviendra applicable dans les deux années suivant l’adoption.

Ce RGPD harmonisera le droit européen et pourrait avoir pour autre atout d’engager un processus d’harmonisation du droit international en matière de protection des données personnelles vers le haut. Par ailleurs, la réduction du fardeau administratif grâce à ce seul texte de loi permettra d’économiser 2,3 milliards d’euros par an, selon les calculs de la Commission.

Le processus peut sembler long mais il convient de rappeler qu’il a fallu 5 années pour négocier la Directive européenne de 1995 sur la protection des données à caractère personnel. Pour le RGPD nous n’en somme qu’à 3 ans et demi, il reste donc de la  marge.

Le RGPD fait l’objet d’un intense travail de lobbying par les représentants des responsables du traitement des données. Ces derniers, même s’ils ralentissent le travail législatif, peuvent jouer un rôle légitime en informant le législateur sur les réalités des sociétés collectrices de données.

Depuis l’affaire Snowden, la réforme législative a connu de nombreux soubresauts. Edward Snowden, ancien consultant de la CIA et membre de la National Security Agency (NSA), révélait en juin 2013, que le gouvernement des Etats-Unis avait collecté auprès de 9 géants américains des nouvelles technologies des informations à caractère personnel au sujet de personnes vivant hors des Etats-Unis, notamment dans le cadre d’un programme de surveillance électronique appelé PRISM. Dès le 21 octobre 2013, le Parlement européen proposait un texte dans lequel une des dispositions stipulait que « le responsable du traitement ou le sous-traitant informent […] la personne concernée de toute communication de données à caractère personnel à des autorités publiques au cours des douze derniers mois consécutifs ». Cette disposition est de toute évidence influencée par l’affaire PRISM.

En général, les affaires liées à la protection des données stimulent le débat sur la vie privée en Europe,  même si elles ont ébranlé la confiance entre l’UE et les Etats-Unis. Ainsi, le 6 octobre 2015, dans une affaire sur le transfert des données d’un citoyen autrichien aux États-Unis par la filiale de Facebook en Europe, la Cour de justice de l’UE (CJUE) a invalidé les Principes de la sphère de sécurité (Safe Harbor Principles) qui permettaient un tel transfert. En cas de menaces sur la sécurité des Etats-Unis, une clause permettait aux autorités étatsuniennes d’accéder aux données personnelles des Européens. La CJUE a tout naturellement suivi les conclusions de l’avocat général suite à l’annonce de la décision de la CJUE qui selon lui, « pose un problème pour les plus de 4000 sociétés américaines et européennes qui dépendent des Safe Harbor Principles pour transférer des données à caractère personnel aux États-Unis ».  Reste à voir les actions que les institutions et les entreprises européennes et américaines vont engager suite à cette décision.

D’un autre côté, même en l’absence d’un RGPD, l’affaire Google Privacy Policy, révèle que les Etats membres de l’UE ont à leur disposition des outils pour contraindre le moteur de recherche à respecter la vie privée et les données à caractère personnel. Ainsi, après plusieurs injonctions, les autorités de surveillance de la protection des données personnelles d’Allemagne d’Espagne, de France, d’Italie, des Pays-Bas et du Royaume Uni ont prononcé à l’encontre de Google des sanctions, notamment des amendes de plusieurs centaines de milliers d’euros. Même si ces pénalités sont relativement peu élevées par rapport au chiffre d’affaires annuel de Google (59 milliards d’euros en 2014), elles annoncent des mesures coercitives plus sévères basées sur le chiffre d’affaires de l’entreprise sanctionnée dans le projet de législation européen.

En France, la Commission Nationale de l’Informatique et des Libertés (CNIL) est en désaccord avec Google sur le déréférencement suite à la décision Google Spain de la CJUE. Depuis la reconnaissance de ce droit par le tribunal, en 2014, toute personne peut demander à un moteur de recherche d’effacer les résultats apparaissant en cas de requête à partir de son nom. Conséquence: Google a reçu plusieurs dizaines de milliers de demandes de citoyens français. Elle a donc procédé au déréférencement de certains résultats sur les extensions européennes du moteur de recherches (.fr ; .es ; .co.uk ; etc.). Mais elle n’a pas procédé au déréférencement sur les autres terminaisons géographiques ou sur google.com, consultable par tout internaute. En mai 2015, la CNIL a mis en demeure Google de procéder au déréférencement sur tous les noms de domaine. Mais Google fait valoir que cette décision constitue une atteinte au droit à l’information du public et donc une forme de censure. Un rapporteur sera sans doute nommé pour trouver une solution.

Pendant que l’Union européenne tente d’arracher un texte commun sur la protection des données personnelles, les états comme la France continuent de renforcer leur arsenal législatif. Le gouvernement a ainsi présenté le 26 septembre 2015 un projet de texte soumis à l’avis du public pour une « République numérique » : une trentaine d’articles portant sur le secret des correspondances électroniques, la portabilité des fichiers, le libre accès aux données publiques. La consultation des citoyens dans l’élaboration du document est une procédure intéressante dont il conviendra de suivre l’évolution.

[su_note note_color=”#f8f8f8″]Par Gregory Voss et les articles « European Union Data Privacy Law Developments », publié dans The Business Lawyer (volume 70, number 1, Hiver 2014-2015), « Looking at European Union Data Protection Law Reform Through a Different Prism : the Proposed EU General Data Protection Regulation Two Years Later », publié dans Journal of Internet Law (volume 17, number 9, mars 2014) et « Privacy, E-Commerce, and Data Security », publié dans The Year in Review, publication annuelle de ABA/Section of International Law (Printemps 2014), co-écrit avec Katherine Woodock, Don Corbet, Chris Bollard, Jennifer L. Mozwecz, et João Luis Traça.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]L’impact du RGDP pour les entreprises va dépendre du texte final adopté par l’UE. Ce qui est certain c’est qu’il y aura une plus grande responsabilisation des entreprises qui gèrent les données. Certaines entreprises vont sans doute devoir créer des postes de délégué à la protection des données  (DPD) sur le modèle du Correspondant Informatique et Libertés (CIL) en France. Des entreprises spécialisées dans l’impact des juridictions en matière de protection de la vie privée vont également voir le jour. Il conseille donc aux chefs d’entreprises d’effectuer une veille législative en matière de protection des données personnelles afin de se conformer à la législation dès que celle-ci entrera en vigueur. Il suggère de sensibiliser les employés par des formations sur la protection des données personnelles. Enfin, les entreprises devront mettre en place des procédures adéquates pour se conformer à la législation sur la protection des données à caractère personnel, y compris celles qui permettront les notifications qui seront requises par le RGDP des violations de données à caractère personnel.[/su_box]

[su_spoiler title=”Méthodologie”]Pour rédiger ses articles sur la législation en matière de protection des données à caractère personnelle, j’ai analysé de nombreux documents juridiques ainsi que « des centaines de pages de propositions, d’amendements, d’avis » émanant surtout des travaux du G29, le groupe de travail indépendant de l’UE sur le traitement des données à caractère personnel. Dans ses articles, je mets en perspective les propositions des instances européennes pour l’adoption d’un RGPD et offre des conseils pratiques pour les entreprises. J’ai également examiné l’évolution des positions des différentes instances européennes, Commission européenne, Parlement, Conseil de l’UE et  a étudié les réactions du législateur suite aux révélations d’Edward Snowden en matière de surveillance électronique..[/su_spoiler]

[su_pullquote align=”right”]Par Sylvain Bourjade[/su_pullquote]

Difficile d’avoir des experts à la fois compétents et indépendants. Nous montrons que, pour que les conflits d’intérêt ne nuisent pas à l’expertise, il faut que les délibérations et les votes de chaque expert soient rendus publics.

Le scandale du Mediator l’a montré : les conflits d’intérêt peuvent avoir de graves répercussions, pouvant aller jusqu’au décès de nombreuses personnes. Comment les éviter, tout en garantissant une expertise de qualité ? Notre recherche montre qu’il est possible de limiter les conflits d’intérêt en apportant davantage de transparence… mais de manière limitée.

Trouver de bons experts est une gageure : les plus compétents ont très souvent des conflits d’intérêt : leurs recherches sont partiellement financées par des industriels, avec qui ils ont parfois des contrats de conseil. Ainsi, leur avis peut être altéré afin de ne pas déplaire à ces industriels.

Pour minimiser ces conflits d’intérêt, sans pour autant avoir recours à des experts moins qualifiés, nous avons  tenté de modéliser mathématiquement le comportement des différentes parties. Les experts sont tiraillés entre trois exigences : ils peuvent certes avoir leur avis biaisé par leur conflit d’intérêt, mais ils doivent en même temps garder une bonne réputation pour rester des experts sollicités. Enfin, même s’ils ont de forts liens avec l’industrie, ils gardent une certaine éthique morale : par exemple, ils se refuseront à approuver un médicament qu’ils savent dangereux. Nous considérons que les choix des experts reposent sur ces trois éléments.

Opacité néfaste

En France, dans la plupart des agences d’expertise comme l’Agence Nationale de Sécurité du Médicament et des Produits de Santé (ANSM, qui s’appelait Afssaps jusqu’en 2012), ni les rapports des experts ni leur votes ne sont divulgués. Si un expert souhaite faire adopter un médicament potentiellement dangereux, sa réputation n’est pas entachée, puisque personne ne connaît le rôle qu’il joue dans cette décision. L’opacité tend donc à favoriser les mauvaises décisions qui peuvent mettre en danger la santé des consommateurs (par exemple la mise sur le marché d’un médicament potentiellement toxique) dues aux conflits d’intérêt.

Inversement, toute transparence qui joue sur la réputation de l’expert améliore l’expertise . C’est le cas lorsque leur identité, le contenu de leur rapport et leur vote sont connus. L’expert ne peut plus se réfugier derrière l’argument “c’est le comité qui a décidé”.  Aux Etats-Unis, la Food and Drug Administration (FDA), chargée notamment d’autoriser les médicaments sur le marché américain, a ainsi décidé d’améliorer ses règles d’expertise pour limiter les conflits d’intérêt. Les experts se prononcent simultanément, et la FDA indique comment chaque expert a voté, et publie un compte rendu détaillé de chaque réunion.

Soigner sa réputation

Les premiers résultats de cette étude théorique ne sont guère étonnants, les effets positifs de la transparence étant bien connus. Mais   notre recherche a mis en évidence des effets bien plus surprenants, où la transparence a au contraire un effet négatif sur la qualité des décisions d’expertise, entraînant par exemple l’autorisation de substances dangereuses. En effet, lorsque les conflits d’intérêt d’un expert sont bien connus, tout le monde s’attend à ce que ses prises de position soient en faveur des industriels qui le financent. Ses rapports et ses votes ne risquent pas d’entacher sa réputation, puisque celle-ci  est déjà  « mauvaise » par la simple révélation de ses liens avec ces industriels.

Inversement, si l’on ne révèle pas ses conflits d’intérêt, cet expert a intérêt à voter contre les propositions des industriels, pour sauvegarder sa réputation. Donc, d’après le modèle que nous avons élaboré, les décisions seront améliorées si l’on divulgue les rapports et les décisions des experts, mais pas forcément leurs liens avec les industriels. Il faut également que les règles les incitent à être honnêtes : les experts ayant pris des décisions dangereuses ne doivent plus être consultés.  Quand on doit prendre des décisions, la manière dont on construit la procédure d’expertise est fondamentale, notamment savoir ce que chacun dit dans les délibérations, et ce que chacun vote.

Perturbateurs endocriniens et climatologie

Difficile, pour l’instant, de prouver incontestablement que la qualité des expertises s’améliore lorsque les règles de transparence sont appliquées. Ce n’est pas observable, car la qualité de la décision ne s’observe que sur le long terme, Pour savoir si le changement de règles de la Food and Drug Administration porte ses fruits, il faudra analyser ses résultats dans 10 ans.  Néanmoins, il est clair que plus de transparence serait bénéfique aux agences françaises et européennes de sécurité sanitaire, surtout au moment où de nombreux dossiers sanitaires viennent sur la table.

C’est le cas notamment des « perturbateurs endocriniens », ces molécules qui interfèrent avec notre système hormonal (dont le fameux bisphénol-A, aujourd’hui interdit dans les contenants alimentaires). De nombreuses études scientifiques ont montré les dangers de ces substances chimiques, mais celles-ci restent largement utilisées par les industriels. Les décisions de l’agence européenne (EFSA) concernant ces perturbateurs endocriniens sont très critiquées par les scientifiques, qui accusent l’EFSA d’être trop perméable aux lobbies et aux conflits d’intérêt, et d’avoir des règles d’expertise opaques. Inversement, en climatologie, le Groupe d’Experts Intergouvernemental sur l’Evolution du Climat (GIEC), dont les rapports font autorité scientifiquement, possède des règles de transparence particulièrement fortes.

[su_note note_color=”#f8f8f8″]Par Sylvain Bourjade et l’article « The roles of reputation and transparency on the behavior of biased experts” publié avec Bruno Jullien dans RAND Journal of Economics, Vol. 42, No. 3, 2011.[/su_note]

[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Le modèle développé s’applique bien aux agences des médicaments, mais aussi à de nombreux autres domaines où une expertise est nécessaire, mais risque d’être biaisée par des conflits d’intérêt. C’est le cas par exemple de la politique de la concurrence, lorsque des experts doivent décider si deux entités peuvent fusionner, alors qu’ils ont des liens avec ces entités, ou avec leurs concurrents. C’est le cas également des recommandations des analystes financiers. Plus étonnant, ces travaux s’appliquent aussi au système d’évaluation des travaux scientifiques, où les articles scientifiques sont jugés par d’autres chercheurs dont le nom reste secret.[/su_box]

[su_spoiler title=”Méthodologie”]Les travaux réalisés avec Bruno Jullien sont une étude théorique issue d’une branche mathématique appelée « théorie des jeux ». Il s’agit de modéliser le comportement des experts, en estimant quels éléments jouent un rôle prépondérant dans leurs décisions. Ils dépendent des objectifs des experts à court et long terme. Cette étude n’est pas reliée à des données d’expertise, puisque celles-ci ne sont pour l’instant pas disponibles.[/su_spoiler]