Disons que la situation au travail n’est pas bonne. Le projet (ou le produit, ou la réorganisation, ou quoi que ce soit d’autre) a été lancé, et le mieux que vous puissiez dire est que les choses ne se déroulent pas comme prévu. Voir pas du tout. C’est un désastre, bien que le meilleur mot pour le dire soit celui que vous sortirez autour d’un verre avec votre équipe et lorsque vous vous défoulez à la maison : c’est un clusterfuck.

Les clusterfucks occupent une place particulière dans la vie publique, une place distincte des complications, des crises et des catastrophes qui marquent notre existence personnelle et professionnelle. Le The F-Word, l’ancien rédacteur en chef de l’Oxford English Dictionary, Jesse Sheidlower, définit un clusterfuck comme « une entreprise ou une situation où tout va mal, confuse ». Bob Sutton, professeur d’administration des affaires à Stanford, va plus loin en décrivant clusterfucks comme « ces débâcles et désastres causés par un mélange mortel d’illusion, d’impatience et d’incompétence qui afflige trop de décideurs, en particulier ceux des groupes puissants, confiants et prestigieux ».

Le terme remonte au moins à la guerre du Vietnam, à l’argot militaire pour désigner les décisions vouées à l’échec résultant de la combinaison toxique d’un trop grand nombre d’officiers de haut rang et de trop peu d’informations sur le terrain. (La partie « cluster » ou « grappe » du mot se réfère prétendument aux insignes des grappes de feuilles de chêne des officiers).

« J’ai une drôle d’obsession pour les clusterfucks« , dit Sutton à Quartz At Work. Lui et son collègue de la Stanford Graduate School of Business, Huggy Rao, ont abordé le sujet directement dans leur livre Scaling Up Excellence: Getting to More Without Settling For Less by Robert I. Sutton , bien que les éditeurs aient exigé que les « clusterfug » de substitution plus souples apparaissent dans le texte final. (Ce n’était pas le choix de Sutton : ses autres livres incluent The No Asshole Rule: Building a Civilised Workplace and Surviving One That Isn’t et The Asshole Survival Guide: How to Deal with People Who Treat You Like Dirt.)

Pour comprendre ce qu’est un clusterfuck et comment l’éviter, il est d’abord utile de clarifier certaines des choses qu’un clusterfuck n’est pas :

Un Fuck-up, ou un gros raté. « Une connerie, c’est quelque chose que nous faisons tous les jours », dit Sutton. « J’ai cassé l’œuf que j’ai fait au petit-déjeuner ce matin. C’était un peu n’importe quoi. » Alors que les clusterfucks sont parfaitement évitables, les gros ratés ou fuck-up sont une caractéristique inévitable de la condition humaine.

Une SNAFU, Situation Normal, All Fucked Up. Bien qu’il soit parfois utilisé comme synonyme de dysfonctionnements mineurs et de hoquets, cet acronyme militaire argotique – « Situation Normal, All Fucked Up » – fait référence à l’état de désordre fonctionnel qui décrit de nombreuses entreprises (et plusieurs de nos vies personnelles) autrement en santé. Un environnement de travail SNAFU est habituellement gérable ; un environnement qui est FUBAR (Fucked Up Beyond All Repair, un autre héritage militaire) ne l’est probablement pas. « Quand mes étudiants avec peu d’expérience vont travailler dans une entreprise célèbre et que ce n’est pas tout à fait ce dont ils rêvaient, je leur demande si c’est FUBAR ou SNAFU, et je leur dis que SNAFU va décrire la plupart de leurs lieux de travail, » dit Sutton.

D’autres nuances subtiles au besoin :

  • SNAFU : Situation Normal: All Fucked Up ;
  • SUSFU : Situation Unchanged, Still Fucked Up ;
  • SHTF : Shit Hits The Fan, utilisé pour décrire une situation devenue incontrôlable ;
  • FUMTU : Fucked Up More Than Usual ;
  • FUBB : Fucked Up Beyond Belief ;
  • TARFU : Things Are Really Fucked Up ;
  • TOFU : Things Ordinary: Fucked Up ;
  • GFU : General Fuck Up ;
  • SAMFU : Self-Adjusting Military Fuck Up ;
  • TUIFU : The Ultimate In Fuck Ups ;
  • FUBAR (en) : Fucked Up Beyond All Recognition/Repair/Reason/Redemption ;
  • FUGAZI : Fucked Up, Got Ambushed, Zipped In; fait référence à une situation complètement hors contrôle, comme une embuscade dans la jungle ;
  • JANFU : Joint Army/Navy Fuck Up; utilisé par les militaires britanniques lors de la Seconde Guerre mondiale ;
  • JAMFU : Joint Army/Marines Fuck Up ;
  • JAAFU : Joint Army/Air Force Fuck Up ;
  • DILLIGAF/DILLIGAS : Do I Look Like I Give A Fuck/Shit? Forme interrogative de « (It) don’t mean nothing ». Courant durant la guerre du Viêt Nam ;
  • TINS : This Is No Shit! Vu dans des forums d’anciens combattants.

Un shitshow, un « spectacle de merde ». Rien de moins qu’une autorité que l’Oxford English Dictionary décrit un shitshow comme une « situation ou un état de choses caractérisé par le chaos, la confusion ou l’incompétence ». Un clusterfuck peut finir par posséder toutes ces caractéristiques, mais il est mieux identifié par les décisions qui l’ont produit que par son résultat.

Les trois principaux contributeurs à clusterfucks

Sutton et Rao ont analysé d’innombrables cas de mise à l’échelle et d’expansion, tant ceux qui ont réussi que ceux qui se sont soldés par un désastre. En examinant les échecs les plus spectaculaires, ils ont identifié trois facteurs clés qui ont entraîné le genre d’effondrement coûteux, embarrassant et tardif qui est la marque d’un clusterfuck. Ce sont donc :

L’Illusion. Un clusterfuck commence par la croyance du décideur qu’un objectif est beaucoup plus facile à atteindre qu’il ne l’est réellement. L’attente que deux constructeurs automobiles de langues et de cultures différentes fusionnent sans faille, comme le croyaient apparemment les architectes de la fusion condamnée Daimler-Chrysler ? L’estimation de l’administration Bush selon laquelle l’invasion et la reconstruction de l’Irak ne prendraient que quelques mois et 60 milliards de dollars ? Un prélude stupide aux proportions tragiques.

L’Impatience. Une idée erronée ne suffit pas à elle seule à produire un clusterfuck. L’idée a aussi besoin d’un champion déterminé à la faire avancer, généralement malgré les objections de sous-fifres plus avertis. L’insistance de Sergey Brin à présenter Google Glass au public contre la volonté de ses ingénieurs a fait d’une technologie potentiellement révolutionnaire une vaste blague.

L’Incompétence. Lorsque des erreurs d’information et de timing se heurtent à des décisions d’une stupidité flagrante de la part de personnes qui devraient être mieux informées, des catastrophes ont tendance à s’ensuivre. Bear Stearns n’était pas la seule cause de la crise financière mondiale, bien sûr, mais la décision de l’ancien PDG Jimmy Cayne de passer 10 jours de la crise des prêts hypothécaires à risque de 2007 à jouer à un tournoi de bridge sans téléphone ni accès au courriel a contribué à la faillite de la société et à la catastrophe mondiale qui a suivi.

Ces trois défaillances ont une racine commune : des gens au pouvoir qui ne reconnaissent pas (ou ne veulent pas reconnaître) les réalités de leur environnement, et qui ne se poussent pas à affronter ce qu’ils ne connaissent pas. Personne n’aime gâcher l’euphorie enivrante d’un nouveau projet passionnant en discutant de la possibilité d’un échec. Le problème, c’est que si les mauvais résultats potentiels ne sont pas abordés avant le lancement, ils sont plus susceptibles d’apparaître par la suite, lorsque le calcul est public et coûteux.

L’antidote au clusterfuck, affirme Sutton, est la volonté d’affronter la possibilité d’échec et de déception inhérente à toute nouvelle entreprise, et de planifier en conséquence.

Il cite une tactique décisionnelle privilégiée de l’économiste Daniel Kahneman, lauréat du prix Nobel d’économie (qui la doit à son tour au psychologue Gary Klein). Avant de prendre une grande décision, les équipes doivent entreprendre ce que Kahneman appelle une « pré-mortem« . Divisez le groupe en deux. Il s’agit d’imaginer un avenir dans lequel le projet sera un succès absolu. L’autre est d’envisager son pire scénario. Chaque groupe rédige ensuite un récit détaillé du succès ou de l’échec du projet, décrivant les étapes et les décisions qui ont mené à chaque résultat. Imaginer l’échec et penser à ses causes à rebours aide les groupes à identifier les forces et les faiblesses de leurs plans actuels et à s’adapter en conséquence.

(accessoirement, quand une situation nous stresse, rien de plus idéal que de scénariser le pire pour avancer avec moins d’angoisse et prendre des décisions plus rationnelles)

« Les gens prennent de meilleures décisions lorsqu’ils se tournent vers l’avenir et qu’ils s’imaginent qu’ils ont déjà échoué, et qu’ils racontent ce qui s’est passé « , dit M. Sutton. Avec une meilleure planification, ce ne sera pas une histoire qu’il faudra masquer avec un biiiip.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.