20 mai 2006

Livre : Le chômage, fatalité ou nécessité?



Comment peut-on intituler ainsi un livre sans être immédiatement taxé de provocation ? Dans ce remarquable travail de synthèse, Cahuc et Zylberberg nous apportent un éclairage nouveau sur le marché du travail, s’appuyant sur de nombreuses études empiriques. La philosophie qui en résulte va à l’encontre de nos idées reçues : le chômage est le temps pendant lequel une personne cherche du travail ; cette recherche doit être bien faite afin de mettre les bonnes personnes sur les bons emplois, ce qui est bénéfique pour l’individu comme pour l’ensemble de l’économie. Le chômage peut donc être vu comme non pas comme un cancer qui ronge notre économie, ni même comme un mal nécessaire, mais comme une activité utile synonyme de gains de productivité et de croissance !

Il n’en reste pas moins que le chômage peut engendrer d’immenses souffrances lorsqu’il est subi et dégrade les conditions de vie. Mais à force de voir le chômeur cherchant du travail non pas comme le chercheur qu’il est mais comme un malade privé d’oxygène, nous avons orienté nos politiques publiques dans la mauvaise direction. Ceci est d’autant plus regrettable que de nombreuses mesures efficaces ont désormais été « testées et approuvées par de grands pays ». Alors que la plupart de nos concitoyens et hommes politiques considèrent que seul le retour de la croissance permettra de faire baisser le chômage, deux économistes nous suggèrent qu’attendre la pluie n’est pas la meilleure stratégie.

Leurs propositions s’articulent autour de trois axes :

- rebâtir l’assurance chômage pour transformer un système d’assistance aux personnes dépourvues d’emploi en système de financement de la recherche d’emploi ;

- subventionner les emplois pour les travailleurs peu qualifiés afin de rendre leur embauche plus attractive pour les entreprises ;

- réformer la législation concernant la protection des salariés afin qu’elle favorise l’emploi en général, et non les seuls emplois existants.

Introduction

Chaque jour ouvrable, 10 000 emplois disparaissent en France, et autant sont créés. La mondialisation n’y est pour rien, c’est le fonctionnement normal d’une économie de marché où la « destruction créatrice » est le principal moteur du progrès. Ainsi, l’actualité se focalise sur les plans sociaux alors que ceux-ci ne représentent que 0,5% des personnes qui quittent leur emploi. Nos politiques ne connaissent pas bien ces phénomènes, et ne disposent pas des outils nécessaires pour évaluer les politiques publiques de l’emploi. Il en résulte que, par manque de connaissances précises sur le sujet, les positions sont inutilement politisées. Au vu de cette situation, on pourrait contredire Mitterrand en affirmant que « contre le chômage, on n’a encore rien essayé ».

  1. 10 000 emplois détruits chaque jour

Ce nombre provient du fait qu’entre 1970 et 2000, l’économie française a détruit chaque année approximativement 15% de ses postes de travail et en a créé 15,5%. Contre toute attente, ces destructions-créations se font principalement à l’intérieur des secteurs d’activité, et non pas par transfert des emplois d’un secteur en déclin vers un secteur florissant. Même en découpant le système productif en 600 secteurs d’activité, ce qui est beaucoup, les mouvements d’emplois entre secteurs ne représentent que 20% du total. Ce mouvement est la conséquence du progrès technique qui entraîne en permanence – à l’intérieur d’un même secteur – le remplacement d’emplois peu productifs par de nouveaux emplois plus productifs. Dans certains secteurs, les réallocations d’emplois se font parfois à l’intérieur des entreprises, mais il existe des exemples frappants où l’apparition de nouvelles entreprises et la disparition des anciennes est responsable de l’essentiel des gains de productivité du secteur.

Parmi les exemples que l’on peut citer, on retiendra les compagnies aériennes à bas coût qui ont connu un fort taux de croissance, même après le 11 septembre. En 2002, il y avait 227 employés par appareil chez Air France contre 26 chez Ryanair. La conséquence est que prendre l’avion coûte aujourd’hui moins cher et que nous pouvons voyager plus souvent. Mais les emplois existants sont le plus souvent conservés tandis que les personnes qui les occupent changent. Ainsi, le nombre de personnes qui changent d’emploi est le triple du nombre d’emplois qui sont créés et détruits. En moyenne, une entreprise qui crée un emploi embauche donc trois personnes et se sépare de deux autres.

Bien qu’il y ait une corrélation réelle entre la croissance globale et la baisse du chômage, une erreur commune est de croire que la première est la cause de la seconde. En réalité, les deux sont déterminées conjointement par ce processus de destruction-création et la façon dont il est organisé. Les études sur ce sujet convergent vers une même conclusion : les écarts de taux de chômage des pays de l’OCDE proviennent en grande partie de différences d’organisation des marchés du travail. La conversion de l’URSS à l’économie de marché montre un phénomène similaire : la croissance de la productivité devient importante après 1996 et est très corrélée avec les réallocations d’emplois. Avant cette date, les habitudes héritées du marché du travail soviétique ne permettaient pas le processus de destruction-création.

En 1955, Wassily Leontief avait fait sensation en affirmant que les Etats-Unis, bien qu’ayant une main-d’œuvre plus chère, exportaient des biens nettement plus intensifs en travail que les biens qu’ils importaient (« paradoxe de Leontief »). Certaines études visent à mesurer cette « balance en emplois » du commerce international, qui est définie comme la différence entre le nombre d’emplois existants, et ce qu’il serait si nous arrêtions nos échanges internationaux. Entre 1978 et 1990, la balance en emplois de la France a été déficitaire de 450 000 emplois tandis qu’elle est excédentaire de 491 000 emplois entre 1990 et 1997. On peut donc difficilement accuser la mondialisation de créer du chômage en France.

Une autre explication tentante est celle des « licenciements boursiers », qui visent comme chacun sait à faire monter le cours d’une action en annonçant une vague de licenciements. Une étude américaine portant sur des milliers d’annonces de ce genre entre 1970 et 1997 est sans ambiguïté : en moyenne, le cours d’une action baisse – d’un peu moins de 1% – après une annonce de réduction d’effectifs.

  1. Le travail ne se partage pas

Une cause souvent évoquée du chômage est la démographie, selon le principe que le nombre d’emplois est fixé et que s’il y a trop de travailleurs, tous ne pourront pas trouver un emploi. Dans ce domaine, même s’il n’est pas possible de faire des expérimentations, plusieurs événements historiques ont donné aux économistes l’occasion d’étudier l’impact d’un choc démographique imprévu sur le marché du travail. Ainsi, en 1962, environ 400 000 Français en âge de travailler furent rapatriés d’Algérie. En 1977, 20 000 réfugiés vietnamiens sont arrivés en France. Depuis quelques années, l’Allocation Parentale d’Education a incité de nombreuses mères de famille à sortir de la population active. Aucun de ces événements ne semble avoir eu l’impact attendu sur le niveau du chômage.

Un cas qui a été étudié en détail est celui de Cuba. En avril 1980, Fidel Castro annonça l’ouverture du port de Mariel afin que toutes les personnes désirant quitter l’île puissent le faire. Le port fut fermé en septembre de la même année ; dans l’intervalle, 125 000 Cubains avaient émigré et la moitié s’étaient installés à Miami. En trois mois, le chômage augmenta de 2% à Miami, puis il baissa ensuite, ce qui incita un économiste à comparer cette évolution à celle de villes témoins ayant des caractéristiques comparables à Miami. La conclusion est frappante : si l’on compare la situation un an avant et un an après Mariel, le chômage et le niveau des salaires à Miami ont connu une évolution en tous points comparable aux villes témoins. Apparemment, l’immigration cubaine n’a donc eu aucun effet hormis une période d’adaptation très courte.

Une explication probable de ce résultat est la faculté d’adaptation rapide du capital. On peut comprendre l’immigration pour motifs économiques par le fait que l’immigré arrive dans un pays où le stock de capital est plus élevé. Sa productivité – et donc son salaire – augmente en conséquence. Dans le cas de Miami, l’adaptation du capital s’est faite rapidement par des investissements dans le secteur du textile qui ont permis d’absorber la main-d’œuvre cubaine. De manière plus générale, la population américaine en âge de travailler a crû de 10% entre 1990 et 2000 sans augmentation du chômage. A l’inverse, on peut s’attendre à ce que l’arrivée des baby-boomers à l’âge de la retraite, qui se traduira par le plafonnement de la population en âge de travailler en France en 2010, n’apporte aucune solution au chômage. Au contraire, par l’augmentation des transferts sociaux, on verra qu’elle risque même de l’aggraver.

Dans le cas des rapatriés d’Algérie, les études indiquent que l’adaptation du système productif s’est moins bien faite puisque l’arrivée de 10 rapatriés s’est traduite par 2 chômeurs supplémentaires parmi les résidents. Une autre étude sur les vagues d’immigration qui ont suivi les conflits de Bosnie et du Kosovo a montré que les conséquences sur l’emploi des résidents étaient plus négatives dans les pays où les coûts de licenciements et les barrières à l’entrée sur les marchés des produits sont élevés.

Concernant la durée du temps de travail, on est surpris d’apprendre que les corporations ouvrières avaient obtenu que 164 jours par an soient chômés en France au XVIIème siècle. Ces mesures furent abolies peu après la révolution, et la durée du travail a considérablement augmenté pendant tout le XIXème siècle. Le début du XXème a donc logiquement été marqué par des conflits sociaux visant à rétablir la journée de repos hebdomadaire, la journée de 8 heures, la semaine de 48 heures, afin d’améliorer la condition ouvrière. C’est une toute autre logique qui a prévalu depuis les 39 heures de Mauroy en 1981 jusqu’aux 35 heures d’Aubry en passant par la loi Robien en 1996 : leur objectif déclaré était de réduire le chômage. Bien que la loi Aubry soit difficile à évaluer en raison du mélange de mesures qui la constituent, on peut penser que sa composante réduction du temps de travail n’a pas été créatrice d’emplois.

  1. Le salaire n’est pas (toujours) l’ennemi de l’emploi

L’impact du salaire minimum sur l’emploi n’est pas aussi clair. Lorsqu’il a brusquement été augmenté de 19% en 1992 dans le New Jersey, les économistes s’attendaient à observer une baisse de l’emploi dans les fast foods de cet état, mais ce ne fut pas le cas. En fait, une hausse du salaire minimum devrait normalement dissuader les employeurs de réaliser certaines embauches. Mais les employeurs disposent parfois d’un monopsone local et sont en mesure de payer leurs salariés moins que ce qu’ils leur rapportent. Dans ce cas, une hausse du salaire minimum réduit leur marge mais l’embauche reste rentable tandis que cela encourage plus de travailleurs rentrer sur le marché. Il existe donc un niveau en dessous duquel la hausse du salaire minimum est bénéfique à l’emploi, tandis qu’au-dessus la situation s’inverse.

Tandis qu’au début des années 60 le salaire minimum aux Etats-Unis était plus du double du salaire minimum en France, la situation s’est aujourd’hui inversée. En tenant compte des charges, le coût moyen du travail au niveau du salaire minimum est 60% plus élevé en France qu’aux Etats-Unis. Il y des raisons de se demander si les Etats-Unis ne sont pas en dessous du niveau optimum, et la France au-dessus, justifiant une politique de baisse du coût du travail peu qualifié. Ainsi, l’exonération de charges patronales sur les bas salaires introduite en 1995 a consisté à baisser le coût pour l’employeur sans diminuer le revenu du salarié. Dès 1997, les conséquences positives de cette mesure étaient importantes. Non seulement elle avait créé ou préservé 220 000 emplois non qualifiés, mais elle a eu un impact de 240 000 emplois qualifiés en permettant aux entreprises concernées de devenir plus compétitives et donc d’embaucher. Enfin, le coût de cette mesure est très faible car largement compensé par les rentrées fiscales liées aux emplois ainsi créés.

Le reproche souvent fait à ce type de politique est qu’il ne faut pas baisser le SMIC et encore moins faire des cadeaux supplémentaires aux entreprises utilisatrices de main-d’œuvre peu qualifiée. Mais c’est oublier que ce sont toujours les ménages qui au bout du compte paient ces charges. Maintenir un coût élevé du travail peu qualifié est donc une décision collective en faveur des allocations chômage plutôt que des subventions à l’activité. Un des effets pervers d’une telle décision est d’opérer une redistribution qui est supportée par les entreprises employant le plus de smicards. [NDLR : à l’inverse, on pourrait argumenter que subventionner le travail peu qualifié est économiquement improductif]

  1. Le travail doit payer

En 1980, la hausse du plafond des indemnités maladie dans le Kentucky a eu pour conséquence une augmentation de 20% de la durée moyenne des arrêts de travail pour les travailleurs les mieux payés qui pouvaient bénéficier de ce déplafonnement. Thomas Piketty a montré que l’extension du régime de l’Allocation Parentale d’Education aux mères de deux enfants en 1994 a fait baisser leur taux d’activité de 58% à 47% en trois ans. Il serait vain de croire que les premiers étaient de « mauvais » citoyens, contrairement aux secondes. L’important est de distinguer les bonnes des mauvaises incitations.

Dans une étude datée de 2002, deux chercheurs ont comparé très précisément les revenus d’un ménage vivant des allocations nationales et locales avec le revenu correspondant à un emploi à temps plein payé au SMIC. Parmi les différentes compositions de foyer prises en compte – célibataire seul, couple sans enfants, couple avec enfant(s), famille monoparentale – les résultats montrent que seul le célibataire a vraiment une incitation financière à travailler. Pour un couple sans enfants, les allocations sont presque équivalentes à un (seul) SMIC à temps plein, et pour tous les ménages avec enfants, entre 1 et 1,5 SMIC à temps plein. Ce qui est étonnant, ce n’est pas qu’il existe des « mauvais » citoyens préférant ces allocations au travail, c’est au contraire que certains travaillent malgré une incitation financière aussi faible !

Dans une expérimentation menée au Canada en 1992, 6000 travailleurs non qualifiés en très grande difficulté furent sélectionnés et partagés en deux groupes. Dans le groupe témoin, ils recevaient les aides normales au chômage, tandis dans le groupe test ils recevaient une prime très importante pendant 3 ans à condition d’avoir trouvé un emploi à temps plein dans les 12 mois suivant le démarrage du programme. Au bout de quatre ans, le nombre de personnes employées à temps atteignait un plafond à 30% dans le groupe témoin, tandis que le groupe test avait atteint le même résultat au bout d’un an seulement, sans différence de salaires. Cette expérience confirme qu’il ne faut pas tout attendre des mesures visant à rendre le travail plus « payant ». Mais si leur efficacité est réelle – même partielle – pourquoi s’en priver ?

La prime pour l’emploi mise en place en France en 2001 est un « impôt négatif », et fait donc partie des mesures visant à donner une incitation financière au travail. Sa mise en œuvre, cependant, laisse à désirer : le montant moyen perçu en 2001 est de 144€ par an, un montant notoirement insuffisant pour déclencher la décision de travailler, et comme elle s’adresse à un public très large, son coût est malgré tout très élevé (plus d’un milliard d’euros en 2001). Le remède est connu : proposer des aides plus importantes et plus ciblées.

  1. Le chômage est utile

Comme il a été dit en introduction, le chômage permet la réallocation de la force de travail vers les emplois les plus efficaces et constitue donc un mécanisme indispensable de la croissance. C’est donc une activité économique utile qui doit être rémunérée comme telle. [NDLR : dans ce cas, pourquoi limiter les allocations chômages au licenciements, et en priver les personnes qui quittent volontairement leur employeur ?] Cependant, la durée moyenne particulièrement longue du chômage en France – plus de quinze mois – est révélatrice d’une inefficacité profonde des institutions qui guident la recherche d’emploi.

L’assurance chômage est également mise en cause parce qu’elle laisse certains chômeurs profiter des allocations sans réellement chercher un emploi. Le comportement des chômeurs autour du moment où il perdent leur droit à l’assurance chômage est révélateur. Si l’on trace la courbe du nombre de chômeur qui retrouvent un emploi en fonction de la durée de chômage on observe un pic à 14 mois qui correspond au moment où les allocations sont supprimées. Ce pic est deux fois plus marqué pour les travailleurs ayant des revenus élevés. Ce résultat frappant semble s’expliquer parce qu’ils disposent d’une marge de manœuvre plus élevée qui leur permet d’exploiter au mieux les revenus de l’assurance chômage. [NDLR : autre exemple, cas d’un(e) chômeur(se) dont le conjoint a des revenus élevés]

La Fédération du livre, mise en place à la fin du XIXème siècle, était une agence de placement de chômeurs gérée et financée uniquement par les syndicats professionnels. Dans ce type de système, le syndicat aidait le chômeur en lui indiquant les employeurs potentiels, et le chômeur était obligé ensuite d’aller les rencontrer dans un temps limité sous peine d’être sanctionné. De nos jours en Suisse, chaque chômeur est tenu de passer un entretien mensuel au cours duquel il fait un bilan de ses recherches ; de plus, il doit accepter tout programme de formation qui lui serait proposé. Les cantons appliquent diversement les sanctions encourues en cas de manquement, qui touchent 2 à 9% des chômeurs selon les cantons. L’étude de ce système ne souffre d’aucune ambiguïté : les sorties du chômage sont d’autant plus élevées que le degré de crédibilité des sanctions est élevé.

Aux Pays-Bas, les chômeurs sont classés en catégories à leur entrée dans le chômage. Il est à noter que 60% font partie de la catégorie I, qui correspond aux chômeurs dont on estime que, compte tenu de leurs qualifications, âge, expérience, présentation générale, élocution, etc. ils ne devraient pas rencontrer de difficultés particulières pour trouver un emploi. Pour compléter l’étude suisse, une expérience menée aux Pays-Bas semble indiquer que la crédibilité des sanctions est en revanche inefficace si aucune aide à la recherche n’est apportée aux chômeurs, même de catégorie I. En règle générale, les expériences menées aux Etats-Unis dans les années 80 confirment que le contrôle des chômeurs assorti d’une aide à la recherche d’emploi entraîne une baisse de la durée du chômage sans effet significatif sur les salaires.

En France, l’institution répondant à ce problème est le PARE (plan d’aide au retour à l’emploi) censé fournir une aide au chômeur en contrepartie d’un engagement contractuel à rechercher activement un emploi, ceci étant consigné dans un document écrit et signé, le PAP (plan d’action personnalisé). Le PAP est actualisé au bout de six mois, et de nouveau au bout d’un an si le chômeur n’a pas trouvé d’emploi. La grande majorité des chômeurs ne bénéficient d’aucune aide digne de ce nom, leur seul engagement consiste à se présenter aux entretiens et à se montrer un minimum coopératifs, et les sanctions ne sont appliquées qu’exceptionnellement et pour des motifs administratifs. L’inefficacité de ce système est criante.

  1. Protéger l’emploi autrement

En 1999, Michelin annonçait 451 licenciements à Soissons alors que les bénéfices de l’entreprise étaient en hausse. Trois ans plus tard, les prud’hommes condamnaient l’entreprise à 10 millions d’euros de dommages intérêts au motif que les licenciements économiques se justifiaient par la préservation de la compétitivité d’une entreprise, mais en aucun cas par son amélioration. A plusieurs reprises, la Cour de Cassation a depuis confirmé cette jurisprudence.

De leur côté, les économistes ont mené de nombreux travaux sur le lien entre la « rigueur » de la protection de l’emploi et le taux de chômage, en ayant soin d’éliminer les effets parasites et les biais divers. Leurs principales conclusions sont qu’une protection plus rigoureuses de l’emploi ne contribue pas à diminuer le taux de chômage, accroît la durée moyenne du chômage et diminue le taux d’emploi.

La valeur privée d’un emploi est représentée par l’activité économique qui en découle pour le travailleur et l’entreprise qui l’emploie. Mais cet emploi a d’autres effets – des externalités en langage d’économiste – qui ont de la valeur pour le reste de la société (principalement les rentrées fiscales qui en découlent, mais aussi la baisse de la criminalité, …). La valeur sociale d’un emploi est la somme de sa valeur privée et de ces externalités. Lorsqu’une entreprise licencie un collaborateur, elle ne tient compte que de la valeur privée de cet emploi, et se soucie assez peu des externalités négatives que cela génère pour la collectivité. Une façon d’inciter les entreprises à tenir compte la valeur sociale des emplois est de mettre en place un système de bonus-malus – inspiré des assurances automobiles – dans lequel les cotisations payées par l’entreprise augmentent avec le nombre de licenciements.

Croire que l’autorité publique – en l’occurrence la justice – peut apprécier objectivement la valeur sociale des emplois relève d’une pure illusion bureaucratique. Augmenter le coût des licenciements incite les entreprises à contourner la législation en les présentant comme des démissions. Le coût encore plus élevé des plans sociaux fait qu’ils ne représentent que 20% des licenciements économiques, ces derniers ne représentant que 2% de l’ensemble des séparations. Malgré les nombreuses résistances que cela devrait susciter, la législation devrait donc être réformée pour s’abstenir de juger les motifs économiques des licenciements.

  1. L’éducation n’est pas une potion magique

L’investissement éducatif est indispensable, mais cela ne dispense pas de rechercher le meilleur compromis coût/bénéfices. On peut en particulier évaluer les « rendements » privés et collectifs des divers mécanismes d’éducation et de formation. C’est ce que fait par exemple la théorie du « capital humain » du prix Nobel d’économie Gary Becker. Une conclusion générale est que les rendements sociaux de l’éducation sont supérieurs aux rendements privés, ce qui conduirait – en l’absence de politique publique – à un niveau de formation trop faible du fait des seules décisions individuelles.

Cependant, de travaux menés aux Etats-Unis et un peu en Europe pour évaluer l’efficacité des programmes de formation, il ressort que seuls les programmes destinés aux femmes de plus de 25 ans issues de milieux défavorisés jouissent d’une certaine efficacité. Très souvent, le supplément de salaire constaté après la formation n’est pas la conséquence de cette dernière, mais uniquement de caractéristiques personnelles qui sont révélées par la sélection à l’entrée des programmes. [NDLR : exemple d’un immigré de 40 ans diplômé du baccalauréat qui suit une formation d’aide-soignant pendant un an – coût de la formation 8000€ – dont il résulte que son salaire passe de 1000€ à 1400€, confirmation ou contradiction ?]. Quant aux entreprises, elles ont tout intérêt à cibler leur investissement sur des métiers spécialisés qui ne pourront pas être valorisés à l’extérieur.

Depuis 1962, l’état du Michigan finance un programme visant à aider des enfants en difficulté de 3 à 4 ans afin de développer leurs capacités intellectuelles et de socialisation. Cela se fait à travers un travail quotidien en petit groupe – un adulte pour six enfants – et des réunions hebdomadaires avec les parents. On constate que ce type programme est socialement rentable, malgré son coût unitaire élevé, notamment par une réduction de la criminalité et des effets bénéfiques également pour les parents.

De nombreux éléments indiquent que le milieu familial détermine en profondeur le développement des capacités des enfants et adolescents. Une étude récente a montré que les adolescents de 15 ans partageant leur chambre avec un frère ou une sœur redoublent nettement plus souvent que ceux qui disposent d’une chambre individuelle. Les auteurs parviennent à ce résultat en comparant des familles ayant eu des enfants de même sexe – avec donc plus d’enfants qui partagent la même chambre – avec d’autres familles de même catégorie de revenus. [NDLR : suis sceptique sur ce point, à voir] A l’inverse, les mêmes auteurs estiment que les moyens financiers supplémentaires alloués aux ZEP n’ont aucun effet sur le devenir scolaire des enfants et des adolescents.

  1. Evaluer et changer les politiques publiques de l’emploi

TUC, ACCRE, CRA, CRE, PIL, CES, CEC, CFI, CIE, CJE, SMAN, SAE, AFPA, APEJ, SIVP, SIFE, SRA, CNE… la liste des programmes d’aide à l’emploi est longue. Comparée à d’autres pays, la France se situe dans le peloton de tête en termes de dépenses pour les aides à l’emploi (public et privé) avec 1% du PIB en 2000 contre 0,6% en Suède. Pourtant, en 1994 la Suède dépensait 1,9% du PIB et la France 0,9%. Mais en France, contrairement à la Suède, les politiques n’ont pas été évaluées correctement et continuent par conséquent de s’empiler. Les études menées en Suède ont conduit à un classement des politiques publiques par ordre d’efficacité :

- 1er : les subventions à l’emploi dans le secteur privé ;

- 2ème ex aequo : le chômage simple, le remplacement temporaire et la formation en entreprise ;

- 3ème ex aequo : l’emploi temporaire dans le secteur public, et la formation en-dehors de l’entreprise.

Il est à noter cependant que la DARES suit depuis 2002 un groupe de bénéficiaires des principaux dispositifs d’aide publique ainsi qu’un groupe témoin. Il est trop tôt pour en tirer des conclusions, mais un des premiers résultats indique par exemple que le passage dans un emploi temporaire du secteur public augmente beaucoup la probabilité de trouver un autre emploi… aidé. On est loin de l’objectif, sans surprise puisque les mesures d’aide tendent à être d’autant plus efficaces que l’emploi aidé est proche d’un emploi régulier. Une des difficultés de ces études est d’estimer les effets d’éviction, qui se produisent lorsqu’une aide ciblée sur une catégorie de population améliore sa situation au détriment des autres catégories.

Epilogue : En attendant la pluie

Ces résultats ne font pas plaisir. Qu’ils soient si peu connus explique en partie pourquoi il y a tant de chômeurs en France. Ils confirment surtout que nous connaissons très mal l’impact des interventions publiques sur l’emploi en France, et que nos connaissances proviennent principalement des évaluations menées à l’étranger. [NDLR : doit-on y voir la tentative d’un chercheur d’obtenir une hausse de son budget ?]

10 mai 2006

Livre : The wisdom of crowds - J.Surowiecki



Introduction

In 1841, the Scottish journalist Charles Mackay published an essay entitled “Extraordinary popular delusions and the madness of crowds”. It is in fact a popular belief that people usually get dumb when they gather into crowds. James Surowiecki’s book discusses several situations where this is absolutely wrong, and collective perception, behaviour, or problem-solving can in fact outperform any given individual. He further stresses that, for such a “wisdom of crowds” to happen, certain conditions must be met.

Although it could be more scientific in its approach, and it mixes various subjects which more or less fit its title, this book is entertaining to read. There are plenty of opportunities one can think of where collective wisdom could apply, and it helps us identify those situations, and predict how they might eventually turn out.

As a first example, Surowiecki quotes an anecdote by the British scientist Francis Galton in 1906. Galton – a firm believer in the superiority of individual experts compared to the stupid crowd – goes to a livestock market where a contest is taking place. Betters must try to guess the weight of an ox after it has been slaughtered and “dressed”. Galton takes note of several hundreds of bets, and finds out that their average is 1197oz. when the actual weight of the ox is 1198oz!

Humans are imperfect decision-makers, and often display limited rationality when trying to solve a given problem. Nobel Prize economist Herbert Simon theorized this in what he coined “bounded rationality”. Instead of being perfectly rational being, we seem instead to make fairly good decisions given the incomplete information which is available to us and the limited amount of time we can spend in the process. Surowiecki gives a variety of examples of problem-solving situations which he classifies in three categories:

- cognition problems, such as guessing the weight of the ox;

- coordination problems, such as picking the best time to go to work in order to avoid heavy traffic, knowing that every other driver faces the same question;

- cooperation problems, such as getting independent, self-interested teams to work together to improve the global results of the company, although this might go against their personal interest.

He then discusses what he considers to be the recipe for success in crowd intelligence:

- diversity, to have people of various backgrounds with original ideas;

- independence, to allow these diverse opinions to occur rather than get people aligned all in the same direction;

- decentralization, to let individual judgements add up rather than have a top-level executive pick the ideas that he likes best.

Part I – Principles

  1. Cognition problems

Galton’s anecdote takes another form in the well-known “jelly-beans-in-the-jar experiment” which has been reproduced over and over. Fill a jar with beans and ask students to guess how many beans are in the jar. The average of the answers is usually quite close to the actual number, and outperforms almost any student in the class. A real-life example of such a cognition problem is seen in sports and games where gambling takes place. The goal can be to estimate how good a given hors is, and what the probability is that it will win the race. If the gambling market says this horse is three to one, this means it should win 25% of the time. This kind of guess turns out to be quite accurate in games where the gambling market is sufficiently large and liquid so that it cannot be easily manipulated and its equilibrium really reflects the average perception of all the players.

In a way, Google can be seen as such a kind of system, since it ranks web pages according to the number of other pages that point towards them, taking into account the individual weight of each page. Google therefore reflects the collective “opinion” of the web on a given page, and is able through this process to find those pages that are most likely to meet your interests.

Similarly, the University of Iowa’s College of Business founded in 1988 the IEM – Iowa Electronic Markets project. This electronic system is designed to predict the outcome of upcoming elections. People can buy and sell future contracts based on how they think a candidate will do in an election. For instance if the price for Bush futures is 48 cents, it means that Bush is expected by the market to score 48% at a given election. Between 1988 and 2000, a total number of 596 polls were compared with the IEM’s forecast price on the day of the poll. As it turns out, IEM was more accurate than the polls three times out of four! What the IEM also suggests is that people focus better on a decision when there is a reward attached to it. Usually, a financial incentive works very well, but status and reputation can provide other forms of incentives to make good decisions. Although such markets could be effectively used to make better political and corporate decisions, there has been much reluctance to do so until now.

  1. Diversity

The engineer Ransom E. Olds started building steam-powered cars in the 1880’s. By the 1900’s there were literally hundreds of car manufacturers in the United States, each with a different design, technology, such as steam, gas, and electric power. By 1910, it was clear that gas was the best energy source, only a few companies had survived, and Ford was among the winners thanks to its invention of the assembly line. In this kind of Darwinian process, it is key to have diversity among the entrepreneurs who come up with the ideas. In this regard, a government usually can’t – and therefore shouldn’t – “pick the winners”. Bringing in a few people who actually know less, are not experts, but have different skills, usually improves the group’s performance.

On the contrary, homogeneity increases the probability that group members will all think of the same bad solution. This is made worse by the well-known phenomenon by which group members tend to follow the opinion of the majority, especially when all have the same kind of background and education.

  1. Independence

If you stand at the corner of a street and stare at the empty sky for a minute, chances are that a few passers-by will look up to see what is there. If a group of five persons does the same staring exercise, the percentage of passers-by looking up will increase considerably. This is known as “social proof”, which is the tendency to assume that if lots of people are doing or believing something, there must be a good reason why. Keynes expressed this in his General theory of employment, interest and money by stating “Worldly wisdom teaches that it is better for reputation to fail conventionally than to succeed unconventionally”.

This kind of behaviour does make sense, since it can often help us solve problems effortlessly. After a certain point it becomes rational to stop paying attention to our own knowledge and to start looking at the actions of others. For instance this allows people to specialize in certain skills, and the benefits from their investment can be spread widely when other imitate them. But this can lead to an information cascade where the information deriving from collective behaviour becomes overwhelming and obliterates any individual judgement.

One way to avoid this kind of pitfall, is to have a sufficient people of overconfident people who will tend to ignore public information and will go on their gut. Fortunately, there is some evidence that information cascades are less likely to fail when important decisions must be taken, because the early adopters or trend-setters then spend enough time and energy making the right decision. However, the best way to avoid them is by making sure that individual decisions are taken all at once rather than sequentially, and getting people to pay less attention to what everyone else is saying.

  1. Decentralization

In 1947, the Congress passed the National Security Act by which the Central Intelligence Agency was created. The division of intelligence responsibilities during WWII was considered to be the cause of the failure to anticipate the attack on Pearl Harbour. Therefore, the goal was to implement a unity of intelligence and unity of command to avoid such a situation in the future. However, the 1993 World Trade Center bombing, several other terrorist attacks and finally September 11, 2001 came as a cruel reminder of the flaws of such an organization. Intelligence agencies had allowed vital information to pass by unnoticed and failed to uncover and prevent the attacks, once again…

The economist Friedrich Hayek called “tacit knowledge” the sum of what a worker knows which cannot easily by summarized and conveyed to others because it is intimately linked with his local environment and everyday situations. Figuring out how to take advantage of individual’s tacit knowledge is a central challenge for any group or organization. The strength of decentralization is therefore to encourage independence and specialization, but it can produce intelligent results only if there is a means of aggregating the information of everyone in the group.

Centralization and top-down organizations are not the answer because they tend to give people the wrong incentive, and make them worry more about their selfish interest than about the corporate goals. In the case of a free market, the aggregating mechanism is the price, and this could be implemented in corporate situations. In principle, an internal market would place the premium not on making one’s boss happy, but on making the most accurate forecast. In 2003, DARPA proposed to fund the development of a market aiming at predicting the probability of events in the Middle East in order to guide the decisions of the Department of Justice. This project received heavy criticism from the Senate and was rejected as “harebrained” and “morally wrong” because it would have allowed market members to make bets on things like terrorist attacks.

  1. Coordination problems

What defines a coordination problem, such as driving to work at the best time to avoid traffic, is that in order to solve it one has to think not only about the answer he believes to be the best, but also about what others might think the best answer is. When coordination does not work, it can lead to paradoxical situations best described by the following quote about a nightclub: “No one goes there anymore, it’s too crowded”.

Social studies suggest that we rely on “focal points” on which people’s expectations are likely to converge. If students are asked to chose a meeting point to meet another student in New York on a given day, but they have no way to communicate with their partner, a majority of students chose Grand Central Station, and when asked at what time they should be there to meet their friend, most answer “at noon”.

Many coordination problems are solved by conventional rules. For instance, seat allocation in the subway is solved by “first-come, first-served”. When students are asked to go in the subway and ask a seated passenger to give them their seat without providing any justification, a majority get a positive answer. Yet, it is difficult for the students to ask the question in the first place because they know that they are breaking a convention.

A free market is a mechanism which can solve one of the most challenging coordination problems: getting the right resources to be invested in the right places at the right cost. In the Arrow-Debreu, every buyer and seller needs full information for this goal to be achieved optimally. However, experiments can be made where each student is given a private price which he does not share with other buyers and sellers, according to which he should decide to buy or sell a stock. Such experiments have been replicated hundreds of times in various settings and the result is invariably the same: the market reaches a near-optimal equilibrium in spite of this imperfect information.

  1. Altruism and rationality

One of the best-known experiments in behavioural economics is called the ultimatum game. In the most common setting, two players are given $100 to divide between them. The first player, called the “proposer”, decides on his own what the split should be. The second player, called the “responder”, is then presented with this split as an ultimatum: he can either accept the split as it is, or no one gets anything and the game is over. A perfectly rational responder should always accept the split, no matter how small the amount he gets is: a small something is better than nothing. In practice, however, most responders reject offers where they get less than $20. Interestingly, proposer seem to anticipate this irrational behaviour and usually propose rather “fair” splits in order to avoid the risk of a refusal.

Some monkeys have been made to play slightly different games, and a pattern seems to emerge according to which we (and monkeys) want there to be a reasonable relationship between merit and reward. When the proposer “gains” his title through a selection process, responders tend to accept more unfair splits, and the proposer proposes more unfair splits accordingly! We display a tendency to reward good behaviour and punish bad behaviour even when we get no immediate benefit from doing so, or even undergo some moderate cost. This kind of behaviour is called “strong reciprocity” and is generally useful to the group’s common good.

Similarly, the group benefits largely when its members are trusting and trustworthy, because it can spare the energy that would be needed to supervise and control everyone’s actions. In fact, over centuries, capitalism has evolved in the direction of a more transparent and trusting society and not towards the self-interested red-blooded capitalism we would have imagined. This is because in time a successful market tends to teach its members to recognize those benefits. Individuals can spend less time protecting themselves from being robbed in economic transactions and contracts are less needed. In the late 1990’s, a study conducted in fifteen small-scale economies such as tribes with various levels or development confirmed that the more market-oriented a society was, the greater its level of prosociality was.

We can easily think of situations in which everyone wants to be a free rider and waits for others to do their duty. However, a somewhat irrational trend in our individual behaviour exists so that groups do cooperate nonetheless. Without undue generalization, we could state that individual irrationality helps reach collectively rational results, and that the failure to solve coordination problems often results from individual rationality.

Paying taxes is an example of coordination situations where everyone would rather be a free rider. Evidence shows that tax evasion depends very much on what we believe other people are doing. The more we believe most people pay their taxes and there’s a good chance those who don’t will be caught, the more willing we are to pay our share. People with such a behaviour are called “contingent consenters” because they do cooperate, but only under certain conditions. They represent the largest share of the population. A smaller group is made of selfish – that is perfectly rational – people. Finally the altruists represent a small minority. Note that, despite American’s vehement anti-tax critics, they actually evade taxes much less than Europeans do…

Part II – Examples

  1. Failure to coordinate in traffic

For a few years now, drivers have been charge £5 to enter the center of London during daytime. Traffic has fallen by 20 percent, and on average cars are able to drive 40 percent faster. This type of regulation is made necessary by our failure to coordinate, which often leads to traffic congestion.

  1. Collaboration, competition and cooperation in science

Collaboration between scientists is part of a kind of division of labour, each one being specialized in a narrow field. Because scientific knowledge is cumulative, you can make discoveries more efficiently if your predecessors have shared their findings with the community. Finally, the incentive of scientists is not so much getting cash as getting scientific recognition from their peers. Reversely, showing the flaws in other peoples’ work can be a way to make a name for yourself. Scientific truth is established when a vast majority of scientists accept it without question. Yet science is not a democracy, as anybody’s voice is obviously not worth as much as Einstein’s when it comes to questions about relativity.

Research displays an interesting situation where collaboration works and benefits the group, although individuals are rewarded by their main competitors! Therefore, there is some fear that, as an increasing share of research is being financed by private corporations, there might be a tendency to protect information and keep it private.

  1. Committees

As the saying goes: “A camel is a horse produced by a committee”.

Decision makers often tend to unconsciously seek those bits of information which confirm their underlying intuitions. This is called the “confirmation bias”. Small groups tend to emphasize consensus over dissent. The information which tends to be talked about the most is the information that everyone already knows. Therefore, it is known that group deliberations are more successful when they have a clear agenda and when leaders make sure everyone gets a chance to speak.

In corporate environments, employees tend to be hired immediately after their graduation so that they have very similar culture and background and lack diversity. In addition, a phenomenon known as group polarization causes group deliberations to often radicalize rather than moderate their members’ opinions. Provided, however, that groups are given a methodology of properly aggregating the opinions of their members, they do make intelligent decisions quickly and better than their smartest members. Under such conditions, groups should be given more power and allowed to make decisions.

  1. Bosses

Zara has been quoted by an LVMH executive as “possibly the most innovative and devastating retailer in the world”. What is their secret? Zara manufactures its products itself in highly automated factories instead of giving this activity away to subcontractors in Asia. Sales of each retail shop are collected in real-time by a computer network, so that new trends in local fashion can be detected and turned into a large number of new products produced at record speed in small quantities. By being built from bottom-up, Zara has solved the problem of unsold seasonal inventories, which compensates the extra cost of production in Spain.

If coordination of small entities by market-like processes produces such results, why do we need large corporations at all? Because outsourcing everything to small specialized entities raises the cost of monitoring and contracting. For many activities, corporations are better off hiring permanent employees to work on assembly lines or in similar organizations. In The godfather, mafia business is run like a traditional top-down fashion, allowing Corleone to make decisions and get them carried out quickly. The downside is that the boss has a hard time managing his distant lieutenants and getting them to disclose the information they have. In Reservoir dogs, on the contrary, a group of individuals comes together to pull off a job and then disperses. The drawback then is that they don’t trust each other and spend a great deal of time securing transactions.

Too often, corporations are organization in a way such that bosses are unlikely to get the right information. Managers tend to be dishonest about their actual performances and problems, and such “unauthentic behaviour” is actually the norm. Internal rivalries defeat the purpose of having a formal organization in the first place, because they diminish economies of scales and increase the costs of monitoring peoples’ behaviour. You should be able to trust your fellow workers more than your competitors, but this is not always the case. Since they give everyone an incentive to work in the group’s best interest, stock options grants to a large number of employees have been shown to improve productivity and profits.

  1. Markets

After the 1929 crash, some observers were tempted to put the blame on speculators who had been short-selling stocks. Shorting has been a traditional scapegoat for all sorts of market diseases, and until 1997 regulations remained in place in the United States to make short selling more difficult or event totally forbidden for mutual funds. Of course, as it turns out, most of the real villains in market bubbles are on the long rather than short side, pushing the prices ever higher with rumours…

Short sellers are in fact useful because they are a small minority of people who tend to make their own judgement on companies rather than to turn to other investors to decide when to sell or buy back. This is in fact a difficult activity, requiring some unusual mental gymnastics to perform consistently well in an environment of negative reinforcement.

The problem with stock markets is that there is no point in time when you can be proved right or wrong like in presidential elections for instance. If everybody knew there was a point in the future when you would be rewarded according to the actual value of the company, it would be harder to speculate. A bubble usually starts as a rational attempt to cash in on a powerful business trend, and the trouble is that speculation can go on forever and the longer it lasts, the more it seems to be “normal”.

As Keynes famously wrote: “Professional investment is like a contest in which contesters have to pick the six prettiest faces from a hundred photographs, the prize being awarded to the competitor whose choice most nearly corresponds to the average preference”. Keynes recognized that investors are sometimes more concerned with what other investors think, or even what they think other investors think, etc. than with the companies’ actual perspectives. Of course, not all investors act like this, but bubbles occur when such panurgic behaviour – relayed by modern media – becomes overwhelming, and the minority of investors with strong individual opinions no longer make the difference. In this regard, the way the Federal Reserve announces its interest-rate decision with sober comments seems wise.

  1. Democracy

Public-choice theorists explain quite accurately that, due to the selfish interests of various interest groups, long-term problems tend to be deferred in favour of short-term political considerations. But they also seem to miss something when they say that voters think only of their personal condition and not of bigger social and economical considerations.

American voters seem to know remarkably little about the questions they are supposed to vote on. On average, for instance, they believe that the United States spends 24 percent of its budget on foreign aid (vs. a few tenths of a percent). So we hardly see how they could make a good decision on such an issue. Instead, in representative democracy, they are asked to pick among several candidates the one which is the most apt to make the right decisions. Even so, political decisions differ from most others because there is no objective standard to decide when a decision is “good” or “bad”. Choosing candidates and policies in a democracy are not, therefore, a pure cognition problem. Instead, it has to do with the most fundamental coordination problem of all: How should we live together to our mutual benefit?