Si nous ne faisons pas attention à notre avenir, nous n’aurons pas d’avenir

On ne présente plus Gérard Klein, écrivain et éditeur, qui a lancé dans les années 70 chez Robert Laffont la fameuse collection Ailleurs et demain (qu’il soit infiniment remercié pour ça !). A l’occasion de sa venue aux Utopiales 2015, il a bien voulu répondre à quelques questions, depuis les rapports entre la science-fiction et la Sci-Fi, jusqu’aux problématiques actuelles du big data ou de l’intelligence artificielle, qui vont sans doute impacter fortement notre futur. Questions d’autant plus structurantes que pour lui le public de la science-fiction a cessé d’avoir confiance dans son avenir et a perdu son intérêt pour les représentations de l’avenir.

Les Éditions du non-A : Comment la science et la fiction peuvent-elles éclairer nos “Réalité(s)” ? (sujet des Utopiales 2015 NDLR)

Gérad Klein : Je ne sais pas très bien ce que vous entendez par « Réalités ». La science perfectionne notre représentation du monde. La fiction et en particulier la science-fiction, interrogent beaucoup de choses : des idées reçues, nos sociétés, nos désirs et nos craintes.

Diriez-vous que la science-fiction jouit aujourd’hui d’une réelle légitimité ?

Non, certainement pas. Il suffit de voir que la petite place qu’elle avait obtenue dans les grands médias, et en particulier dans la presse écrite, place qui a diminué puis pratiquement disparu. Ce déclin ne date pas d’hier. Il me semble avoir commencé avec le millénaire et il est maintenant catastrophique. Plus personne ne semble s’y intéresser en dehors du cercle très restreint des amateurs et professionnels.

Comment expliquez-vous la sorte de submersion qu’elle subit par la fantasy, la Sci-fi, et les romances fantastiques ?

Personne n’a vraiment de réponse. Je pense cependant que le succès de la science-fiction, dont le public a toujours été assez particulier, a été assuré dans les années 1970 et 1980 par l’ascension sociale de ses lecteurs qui avaient à peu près tous une formation technique ou scientifique. Cette ascension a été interrompue dans les années 1990 par la concurrence d’ingénieurs, chercheurs, etc., indiens, chinois, beaucoup moins coûteuse. Ce public a dont cessé d’avoir confiance dans son avenir et a perdu son intérêt — fait du reste de désir et de crainte — pour les représentations de l’avenir. Il s’est massivement réfugié dans les propositions fantasmatiques, voire carrément réactionnaires, de passés de pacotille. La sci-fi, qui, au demeurant n’est plus guère représentée, c’est de l’action sous une vague défroque de science-fiction.

Christopher Priest me disait qu’il préférait le terme de « littérature fantastique » au sens large que SF. Quel est votre point de vue à ce sujet ?

En français, fantastique a un sens beaucoup plus précis qu’en anglais. Donc Priest ne parle pas de la même chose. La science-fiction est une espèce littéraire bien à part. Je qualifierai plutôt la plus grande partie de la production de Priest, de littérature de l’étrange ou de l’insolite, souvent à la marge de la science-fiction, mais aussi du fantastique.

La fin de « L’anticipation dans le présent » est-elle liée à une sorte de désenchantement du monde ?

D’abord, on la rencontre encore. Ensuite, sa disparition progressive à partir des années 1950, pour dater les choses avec précautions, correspond au fait qu’auteurs et lecteurs ont très bien compris qu’ils vivaient dans un monde en changement sous l’effet du développement scientifique et technologique et qu’il n’était plus guère possible d’imaginer une grande innovation qui demeure sans effets comme faisait Verne, notamment. Mais William Gibson, par exemple situe ses romans les plus récents dans un avenir si proche qu’il ne peut pas être distingué du présent.

Nous sommes a la croisée des chemins : des ruptures technologiques sont annoncées (nanotechnologies, biologie de synthèse, etc.) avec une remise en cause des modèles de croissance économique et aux problématiques écologiques : en quoi la science-fiction et les regards qu’elle porte sur notre société peuvent-ils enrichir la réflexion ?

En la lisant. La science-fiction n’a ni visée ni portée prophétique. Les auteurs traitent comme ils veulent les problèmes qui les intéressent.

Gérard Klein : "Si nous ne faisons pas attention à notre avenir, nous n'aurons pas d'avenir"

La fin du film Her de Spike Jonze montre que le mode de fonctionnement d’une intelligence artificielle nous sera totalement étranger, fonctionnant à des vitesses et dans des dimensions nous échappant complètement. Cette situation, mise en exergue de nombreuses fois pas la SF, n’est-il pas un risque majeur pour l’Humanité ?

Non. Aucune IA n’est consciente ni vraiment intelligente au sens humain, ni ne le sera probablement jamais. Le terme d’intelligence artificielle (forte) a été introduit par Marvin Minsky et al pour s’assurer des financements substantiels dès les années 1950. Les progrès fondamentaux ont été inexistants même si beaucoup de compétences ont été conférées à des machines, en fait à des logiciels. Personne n’a la moindre idée sur le fonctionnement de l’intelligence humaine ou si l’on préfère, des cerveaux humains. Si l’on employait le terme de compétences au lieu de celui d’intelligence, le malentendu cultivé par certains de façon très intéressée serait levé. Je ne doute pas que des voitures autonomes circuleront d’ici moins de vingt ans. Elles disposeront d’une compétence, mais seront aussi stupides qu’un réfrigérateur qui n’est pas intelligent parce qu’il maintient à peu près constante la température pour laquelle on l’a programme. Évidemment, on peut se faire écraser par un train ou par une avalanche. Her n’est pas une IA ou donnée explicitement comme telle. Her est un logiciel qui, utilisant l’exploitation du big data, peut prévenir les questions voire les désirs de ses « clients ». Et elle a une voix charmante. Imaginez que Miss Wiki réponde verbalement à vos questions vocales et manifeste une connaissance quasi encyclopédique, avec une voix charmeuse, ce qui serait dès à présent tout à fait possible, vous pourriez facilement la prendre pour une IA ayant passé le test de Turing, qui, soit dit en passant, était une plaisanterie de Turing. Or, elle n’aurait pas plus d’intelligence qu’une porte. Ce qui renvoie à une autre de vos questions : l’exploitation du big data rend-elle les humains prévisibles et donc les sociétés contrôlables ? Dans le court terme, et pour beaucoup d’humains, sans doute. Amazon prédit assez bien ce qui peut vous intéresser et ce que vous lirez ou écouterez probablement, etc. Le big data devient carrément inquiétant lorsqu’il amènerait à prédire qui commettra un crime ou deviendra terroriste. Ce qui a toujours été le rêve de tous les gouvernements et plus généralement de toutes les organisations sociales , à commencer par votre assureur. Mais il n’y a pas d’intelligence là-dedans, seulement de la compétence à traiter de grandes masses de données et à s’appuyer sur le conformisme de la plupart des gens.

Est-ce que vous pensez qu’une science comme la psychohistoire développée par Asimov pourra être un jour mise au point pour guider l’humanité ?

Non. Acune philosophie ou théorie de l’histoire n’a jamais eu le moindre contenu scientifique. Un contenu scientifique implique la possibilité d’expérimentation et de réfutation. En un sens les théories marxistes et autres totalitarismes ont bel et bien été réfutés, mais à quel prix.

Quels sont vos projets ?

Je prépare au moins deux ouvrages et si j’en trouve le temps, j’écrirai probablement quelques nouvelles. Et je continuerai à publier préfaces et articles selon les opportunités.

Et pour finir : Asimov à dit qu’individuellement, « les histoires de science-fiction peuvent paraître triviales aux yeux des philosophes et des critiques d’aujourd’hui, mais l’esprit de la science-fiction, son essence, portent à présent la clé de notre salut, si tant est que nous puissions être sauvés. » Qu’est-ce que cela vous inspire?

Ça me semble un peu grandiloquent. Ce qu’Asimov voulait sans doute dire, c’est que si nous ne faisons pas attention à notre avenir, nous n’aurons pas d’avenir. La science-fiction est une façon d’y prêter attention. Il y en a d’autres, plus rigoureuses, dont la prospective.

Propos recueillis par Jean-Rémi Deléage en mail.

Biographie

Gerard-Klein2Né en 1937, Gérard Klein, diplômé de l’Institut d’études politiques de Paris et de l’Institut de psychologie de la Sorbonne, économiste, éditeur et écrivain, publie ses premiers textes à 18 ans dans les revues Galaxies et Fiction. En 1958, il fait paraître un premier roman, Le Gambit des étoiles, et un recueil de nouvelles, Les Perles du temps. Par la suite, il publie plusieurs romans dont Le Sceptre du hasard, Les Seigneurs de la guerre, et des recueils de nouvelles: Histoires comme si, La loi du talion et Mémoire vive mémoire morte. En 1969, il lance chez Robert Laffont la fameuse collection Ailleurs et demain qu’il dirige toujours. Auteur d’une quinzaine de titres traduits dans plusieurs langues, ayant publié de nombreux articles et essais, surtout sur la science-fiction, il est le second français, après Pierre Versins, à avoir reçu le Pilgrim Award 2005, décerné par la Science-Fiction Research Association, pour l’ensemble de son œuvre d’écrivain, d’essayiste et d’éditeur. Mais selon lui, « son plus grand titre de gloire est d’avoir fourni en 1992 un sujet du bac sur le thème “science-fiction et prospective” ».

Photos : Une, jrd (cc), Her, D.R.

Publié dans le Hub de la Futurologie.

Quand la science étudie les médecines complémentaires

Une étude récente indique que les Français sont de plus en plus nombreux à plébisciter les approches complémentaires pour leur santé. Par exemple, 72 % d’entre eux considèrent ces pratiques comme importantes en support des traitements médicaux du cancer. Ils souhaitent une meilleure prise en charge de la douleur, du soutien psychologique, de l’accompagnement social, avec notamment des approches telles que l’ostéopathie, l’acupuncture, la relaxation, la sophrologie, la nutrition, l’hypnose, le yoga ou le Qi gong… (Baromètre cancer 2013, Institut Curie et Viavoice). Les « médecines complémentaires et alternatives » sont devenues un enjeu de société, tant du point de vue humain et social, que du point de vue économique et de l’organisation de la santé en France. Directement ou indirectement, on peut dire que ces pratiques non-conventionnelles permettent de mieux prendre en compte les demandes des Français, d’être une des réponses aux problématiques des déserts médicaux, d’offrir une gamme plus large d’accompagnement de santé, de donner des clés pour que chacun puisse devenir un véritable acteur de sa santé.

Cependant, ces pratiques restent encore controversées, parfois décriées et rarement prescrites par les médecins. Nous avons cherché à en pister quelques raisons en rencontrant Bruno Falissard1, Professeur de santé publique à la faculté de médecine de l’université Paris XI et directeur de l’unité INSERM U669 et Juliette Gueguen, qui prépare une thèse sur le sujet.

Vous avez suivi un parcours atypique. Qu’est-ce que l’approche pluridisciplinaire apporte à votre pratique ?

Bruno Falissard – Pour le dire de façon brève, j’ai fait Polytechnique parce que j’adorais les mathématiques et la physique. Mais je souhaitais faire un métier dans lequel je pouvais m’occuper des gens, les soigner. Ce pour quoi j’ai fait médecine. En ce qui concerne la pluridisciplinarité, j’aime bien ce mot anglais de Channeling. En fac, nous avons appris à penser en silos. Nous sommes dans une pensée « silotée » par des idéologies. Vous avez des idéologies magiques, et puis vous avez des idéologies scientifiques. Même au sein de la science vous avez plusieurs types d’idéologies scientifiques. On ignore souvent que l’idéologie biologique par exemple est très différente de celle de la médecine statistique. D’ailleurs, Claude Bernard détestait les statistiques. Dans le monde de l’évaluation du médicament par exemple, il y a des chercheurs très proches des statistiques et qui sont « antibiologique ». La multidisciplinarité permet de prendre du recul et de se rendre compte que parfois, on est enfermé dans des idéologies scientifiques. Et lorsqu’on est enfermé dans un schéma, on finit par dire des bêtises.

Il y a des représentations sociales de la santé et sur comment « il faut » se soigner ?

Bruno Falissard – Oui tout à fait. Prenez le terme classique d’ »Evidence Based Medicine« . Il y a des acteurs sociaux et scientifiques médicaux qui disent : « nous avons trouvé une méthodologie qui permet de dire qu’il y a des soins dont on a prouvé l’efficacité« . Donc, tout à coup, nous sommes devant un discours de vérité qui dit : « ça y est nous avons trouvé la lumière ! » Mais ça ne tient pas debout. Il suffit de regarder par exemple le sens du mot « prouvé ». La « médecine fondée sur des faits prouvés« . Cette dernière dit qu’une « proposition est prouvée lorsqu’elle est établie par une méthodologie reconnue et qu’elle entraîne une croyance« . C’est-à-dire qu’en fait, tout le monde croit que derrière quelque chose de prouvé, il y a la vérité. Mais c’est faux. On a utilisé une méthodologie reconnue qui a prouvé l’efficacité de soins, et ça c’est très bien, on croit à tout cela, et ça c’est très bien aussi, mais ça n’est qu’une croyance. Ce discours d’Evidence Based Medicine, j’y participe aussi et ça amène du progrès dans les soins, il n’y a aucun doute, mais quand on se dresse dans sa « cape blanche » en disant qu’on a trouvé la vérité, alors on dit n’importe quoi.

Il y a des pratiques comme l’auriculothérapie, expérimentée à l’hôpital, qui ont bénéficié d’études approfondies et ont prouvé leur efficacité et pourtant il y a encore des chefs de clinique qui estiment que ça n’est pas sérieux. Qu’en pensez-vous ?

Juliette Gueguen – Dans l’évaluation des approches complémentaires, quels que soient les résultats des études, il est très difficile de donner des conclusions fiables en partant des méthodologies classiques, tout simplement parce que la plupart du temps, ces approches ne permettent pas de respecter intégralement les standards méthodologiques appliqués dans l’évaluation du médicament. Et du coup, il est possible, devant des résultats qui paraissent à première vue très positifs, d‘en avoir une lecture très critique en mettant en avant les biais des études…

Les médecines complémentaires sont-elles trop aléatoires, les résultats trop subjectifs pour être efficaces selon les critères scientifiques ? Peut-on mesurer cette subjectivité malgré tout ?

Bruno Falissard – Il y a plusieurs questions dans ce que vous dites. Peut-on mesurer la subjectivité ? Comment évaluer les soins ? Le problème c’est que cette évaluation relève aujourd’hui essentiellement des médicaments. Plus de 90 % des études, qui évaluent des soins, évaluent des médicaments.  Les médicaments sont fabriqués par des firmes pharmaceutiques, qui gagnent de l’argent avec. Je n’ai aucun problème avec ça. Or, vous avez remarqué que ce sont les firmes pharmaceutiques qui gagnent de l’argent avec les médicaments qui évaluent leurs propres produits. C’est comme ça dans tous les pays du monde. Donc, il y a une situation très étrange, de conflits d’intérêts majeurs, et qui sont de notoriété publique. Pour lutter contre ça, nous avons développé des méthodologies d’évaluation des médicaments extrêmement strictes à base d’essais contrôlés où on tire au sort — parce que les tirages au sort permettent d’avoir des réponses extrêmement convaincantes — qui s’intéressent non seulement aux effets du médicament sur les gens, mais aussi à l’effet de la molécule du médicament. Parce que ce qui coûte cher, c’est la molécule. Si un médicament a autant d’effet qu’un placebo, moi en tant que médecin, ça ne me pose pas de problème, sauf que si je le paye beaucoup plus cher que le placebo, alors il y en a un, de problème. Donc, il est tout à fait licite que la société, qui paye cher les médicaments, les évalue de façon très stricte et qu’elle évalue l’activité intrinsèque de la molécule.

En conséquence, le problème qui se pose, c’est qu’on apprend l’évaluation des soins à partir de l’évaluation des médicaments. Et comme depuis que nous avons fait des essais randomisés, la médecine a prouvé son efficacité, alors il y a eu une espèce de généralisation de l’évaluation des soins selon ces critères. Évidemment, lorsqu’il s’agit d’évaluer l’hypnose, l’acupuncture, l’ostéopathie, on se demande bien ce que pourrait être un placebo d’hypnose ou d’ostéopathie. On se demande comment on va faire. Mais cela n’a aucun sens parce que l’on transpose une méthodologie qui vient d’un domaine très précis, avec un contexte sociologique très précis, d’un autre domaine qui n’a rien à voir. Sans doute, ce qu’il faudrait faire, c’est s’inspirer de ces méthodologies pour voir comment l’appliquer à ces pratiques complémentaires. Trouver le critère pertinent, le moyen de transposer l’approche méthodologique classique pour évaluer des soins non médicamenteux. Et ce, en étant décomplexé par rapport au placebo et au tirage au sort.

Est-ce que les médecines personnalisées complémentaires et alternatives peuvent permettre inversement de mieux évaluer les médicaments ?

Bruno Falissard – Oui, je pense que nous allons bénéficier des améliorations dans l’évaluation de ces médecines complémentaires pour évaluer différemment l’impact des médicaments. Par exemple, dans le diabète de type 2, il y a un problème de subjectivité très important qu’il faut prendre en compte : c’est que les gens ne prennent pas leurs médicaments. Pourquoi ? Parce qu’ils ne se sentent pas malades. On leur demande de faire un régime, de faire du sport, de prendre des médicaments, mais ils ne comprennent pas pourquoi, ils en ont marre. Ils savent que ce type de diabète est très embêtant, mais c’est une compréhension intellectuelle.

Les médecines complémentaires ressortent du qualitatif. Pourquoi ne pas prendre plus cet aspect en compte ?

Bruno Falissard – On pourrait tout à fait faire des études qualitatives, de ressenti dans l’évaluation des médicaments. Mais le problème est culturel. Au jury du Programme hospitalier de recherche clinique (qui attribue beaucoup d’argent pour évaluer les soins, indépendamment des entreprises pharmaceutiques), on a soulevé l’hypothèse du qualitatif : et bien, la majorité du jury ignorait même qu’il existait des méthodologies qualitatives. Il y a des problèmes de culture méthodologique. Et c’est le même problème chez les collègues qui font des études qualitatives et qui ne supportent par les études randomisées. Il s’agit bien de problématiques idéologiques, de chapelles, de préjugés.

Pourtant, l’hypnose est très étudiée et comporte une littérature scientifique extrêmement abondante. Ne peut-on pas faire pareil sur d’autres domaines comme la sophrologie, le Qi Gong, l’EMDR… ? Qu’est-ce qui bloque ?

Juliette Gueguen – C’est vrai que, dans le domaine de l’hypnose, il y a eu de nombreux travaux réalisés en neurologie, en neuro-imagerie pour comprendre les mécanismes à l’œuvre, les aires cérébrales impliquées, il y a aussi des études cliniques… Mais si vous prenez les 10 000 études récentes sur le sujet et que vous regardez celles qui sont contrôlées, randomisées, vous descendez à 400. Autres exemples : la sophrologie s’est beaucoup développée en France, mais finalement relativement peu dans d’autres pays, et vous manquez donc d’études internationales ; et pour le Qi Gong thérapeutique, c’est encore très nouveau et on accède difficilement à la littérature chinoise sur le sujet. Je pense donc que c’est en partie lié à l’historique de ses pratiques.

On parle beaucoup de troubles bipolaires, d’enfants hyperactifs, d’addictions aux nouvelles technologies, pensez-vous qu’il y a de nouveaux troubles mentaux liés à la modernité ? Et y a-t-il du nouveau dans les thérapies ?

Bruno Falissard – En première approximation, je dirais qu’il n’y a pas de nouvelles maladies mentales. On parlait déjà des troubles bipolaires chez les Grecs. Du fait de l’arrivée de l’Internet, des réseaux sociaux en observent par exemple au Japon le Hikikomori, qui est vraisemblablement un trouble psychiatrique complètement nouveau. Il s’agit de l’isolement d’adolescents et de jeunes adultes qui n’ont de contact avec la société que pour manger et qui ne font que communiquer à partir de leur chambre via l’Internet, sans qu’il y ait de trouble psychotique, de phobies sociales ou autres. On commence à avoir quelques cas en France, mais ça reste sporadique. Pour le reste, les pathologies psychiatriques résistent à l’épreuve du temps.

Quand on regarde l’histoire du traitement des maladies psychiatriques, il y a eu des placebos et des molécules actives, comme l’opium dès le moyen âge. Parfois, ça se passait mal, et on brûlait les gens. Après est arrivé Pinel, au XIXe siècle. Avec lui, la relation au « fou » change : il est devenu un patient et on commence à lui parler car le fait de lui parler peut le faire aller mieux. En 1960, il y a la révolution du médicament dans laquelle on est toujours aujourd’hui. Mais depuis 20 ans, on peut dire qu’il y a un essoufflement de l’innovation dans les médicaments, et du coup il y a une montée en puissance des traitements non médicamenteux, avec une rationnalisation, une meilleure évaluation, avec de la recherche. Il y a émergence de nouveaux traitements psychologiques.

Cette trajectoire est curieuse, car nous sommes partis de la psychanalyse, au plus près de la subjectivité, puis passés par un virage avec des soins très comportementaux ou cognitifs — dans lesquels on s’intéresse de façon assez carrée au traitement d’informations — à des soins qui se rapprochent de considérations extrêmement subjectives et intérieures, notamment avec la méditation de pleine conscience. C’est comme si en traçant une ligne, on allait retrouver dans 20 ans la psychanalyse, mais avec un langage un peu plus scientifique.

Assiste-t-on à la fin du tout médicament, comme à l’hôpital Sainte-Anne qui utilise les méthodes de méditation de pleine conscience ? Et aussi la prise en compte d’approche globale incluant par exemple la nutrition ?

Bruno Falissard – Nos sociétés occidentales ont toujours eu un rapport ambivalent avec les psychotropes. Ils sont diabolisés, mais presque tout le monde en prend. On dit du mal des médicaments, mais on ne rembourse pas les solutions alternatives.

Pourquoi ?

Bruno Falissard – C’est complexe. Les torts sont partagés, d’un côté les psychothérapeutes ont été pendant longtemps réticents au remboursement, en particulier parce que le processus de remboursement impliquait de définir ce qu’était un psychothérapeute, et dans ce processus, certains auraient pu perdre leur étiquette. Et de l’autre côté, si on rembourse ces pratiques, la sécurité sociale va encore augmenter son déficit.

Aujourd’hui on sait que le soin psychiatrique ne doit pas se limiter au médicament. La notion de handicap psychique montre qu’un patient psychiatrique chronique sera bien mieux s’il travaille et que si on donne un toit à un SDF qui a des problèmes psychiatriques, il ira beaucoup mieux.

Une étude récente de l’institut Curie et ViaVoice montre que 72 % des Français plébiscitent les pratiques complémentaires et alternatives dans les soins anticancéreux, qu’en pensez-vous ?

Juliette Gueguen – Cela répond à une demande très forte, une demande d’approche globale, qui d’ailleurs parfois peut correspondre à une philosophie de vie. Il y a des études sur le sujet qui ont été réalisées, sur cette prise en charge, qui est d’ailleurs plus « complémentaire » « qu’alternative ».

Bruno Falissard – Plus qu’un changement de regard sur cette question, je pense qu’il s’agit d’un coming out. Maintenant, les gens le disent, ils ont moins peur d’en faire la demande. Cependant, ils ne vont peut-être pas en parler à leur médecin de peur de sa réaction. C’est d’abord un problème culturel, car il y a un « choc de représentation ». La France est un des pays où l’on commence des études de médecine juste après le baccalauréat, avec une formation extrêmement biologique. Quasiment la moitié des cours de médecine sont des cours de biologie. Donc on a des médecins qui ont une formation biologique extrêmement solide, ce qui a des avantages c’est indéniable, mais qui, du coup, ont une représentation de la maladie très « Claude Bernardienne ».

Donc quand les patients viennent leur parler d’un soin complémentaire — acupuncture, nutrition, sophrologie — cela rentre en conflit avec leur représentation de ce qu’est la médecine. Et dès qu’il y a choc de représentation, on a tendance à repousser. Et puis le deuxième point important, c’est que cela crée une blessure narcissique. Je vous donne un exemple : j’ai eu un jeune patient qui avait une encoprésie (forme d’incontinence fécale) et nous n’arrivions pas à trouver une solution. Et un jour les parents sont venus me voir en disant qu’il était guéri. Comment ont-ils fait ? Ils sont allés voir un rebouteux. J’ai dit, très bien, bravo ! Mais quelque part je me suis trouvé un peu imbécile. Vous êtes pédopsychiatre, vous avez des dizaines d’années d’études, vous travailliez dans un hôpital universitaire, et ce que vous n’arrivez pas à faire, le rebouteux le peut. Même si ce qu’il a réussi a peut-être bénéficié de tout le travail qui avait été fait précédemment avec l’enfant, à l’hôpital. Cela fait réfléchir…

Le Pr Turtz, directeur du Centre Gustave Roussy à Villejuif, après un voyage en Inde et la découverte de la médecine ayurvédique, a estimé qu’il vaudrait mieux former les médecins sur les approches psychologiques, sociales, voire anthropologiques…

Juliette Gueguen – C’est tout à fait vrai. Heureusement il y a certaines facs qui commencent à intégrer des modules de sensibilisation aux approches complémentaires pendant le cursus des études de médecine pour que les praticiens puissent être mieux à même de répondre aux besoins de leurs patients, de mieux les orienter, et éviter le cloisonnement. C’est vrai qu’il peut y avoir un choc des cultures entre des critères cliniques, symptomatiques et des pratiques qui ne sont pas basées sur les mêmes critères. Des malades, qui peuvent avoir conservé des symptômes, mais qui se sentent beaucoup mieux grâce à ces pratiques.

Bruno Falissard – On a ça dans le domaine de la psychiatrie d’ailleurs. Lacan dans ses espèces de provocations disait que dans une cure analytique « la guérison vient de surcroît ». C’est très provocateur évidemment puisque si c’est un soin qui n’a pas pour but de guérir les gens, alors à quoi ça sert, d’autant que ça coûte cher…. Les Anglo-saxons parlent de « recovery » : je n’ai pas guéri, mais je ne me considère plus comme un malade. C’est très utilisé en schizophrénie, car on ne peut pas guérir un patient schizophrène même si nous pouvons améliorer sa symptomatologie. Certaines thérapies permettent aux patients de s’accepter tels qu’ils sont, de faire en sorte qu’ils soient mieux intégrés dans leur environnement et cela change tout dans le regard. Le leur et celui de leurs proches. Mais ce type de traitement échappe complètement aux essais randomisés.

Quel est votre point de vue sur les médecines complémentaires et alternatives ?

Juliette Gueguen – Mon sujet de thèse concerne principalement les méthodologies d’évaluation de ces médecines pour voir comment combiner des méthodes quantitatives et qualitatives. Je travaille notamment sur une étude qualitative s’intéressant à l’expérience du Qi Gong par des patientes anorexiques. J’ai également une étude de synthèse en cours des travaux sur l’hypnose dans le cadre de l’accouchement. Dans ce dernier cas, je peux vous donner un exemple issu de la confrontation des approches quantitatives et qualitatives : les essais contrôlés randomisés vont estimer qu’un des critères de jugement le plus logique si on veut évaluer l’hypnose est le recours à la péridurale, et les méta-analyses ne montrent pas d’efficacité de l’hypnose sur ce critère. Mais en fait, si nous regardons les études qualitatives, l’objet de l’hypnose n’est pas de réduire le recours à la péridurale, c’est de modifier le vécu des femmes. Non pas principalement en rapport avec la douleur, mais en rapport avec leur vécu, le rôle plus actif qu’elles vont pouvoir jouer et le meilleur souvenir qu’elles vont garder de cet événement. On peut donc s’interroger sur la pertinence du critère de jugement retenu par les études quantitatives…

Ainsi, pour évaluer les approches complémentaires, il semblerait pertinent de réaliser des études qualitatives en amont des essais contrôlés randomisés, afin de préciser le critère de jugement le plus adapté. En l’occurrence, de futurs essais sur l’hypnose dans le cadre de l’accouchement gagneraient peut-être à utiliser comme critère de jugement principal l’expérience de l’accouchement et non le recours à la péridurale.

Propos recueillis par Jean-Rémi Deléage
Publié en 2015 dans Passeport Santé.

 

1. Dr Bruno Falissard. Ancien élève de l’école Polytechnique, pédopsychiatre, docteur en statistique et santé. Professeur de santé publique à la faculté de médecine de l’université Paris XI, directeur de l’unité « Troubles du comportement alimentaire de l’adolescent » INSERM U669 – Maison de Solenn. Cochin. Il préside depuis 2007 le comité autisme de la Fondation de France. Président de l’International Association for Child and Adolescent Psychiatry and Allied Professions (IACAPAP). Il est l’auteur de nombreux articles dans des revues scientifiques.

Livres : 2008 : Mesurer la subjectivité en santé : perspective méthodologique et statistique, Masson, 2008 : Cerveau et psychanalyse : tentative de réconciliation, L’harmattan.

2. Dr Juliette Gueguen. Médecin de santé publique, ingénieur méthodologiste, unité INSERM U669. Prépare une thèse sur l’évaluation les médecines complémentaires.

Qui est le référent dans la formation des opinions à l’heure du New Media ?

Mardi dernier un débat très intéressant était organisé par le Syntec conseil en Relations Publiques à l’université de Paris-Dauphine sur le thème : “Les médias traditionnels sont-ils toujours les acteurs de référence dans la formation des opinions ?”.

Y figuraient des journalistes, des observateurs des médias, des directeurs de presse, et bien entendu, des responsables New Media.

À l’heure où les journalistes et les groupes de presse voyagent en terre inconnue, que l’urgence économique s’accentue, les médias sont en même temps confrontés au doute des publics qui feraient de moins en moins confiance aux titres de presse classiques (tout comme aux politiques, aux experts, aux directeurs de com des entreprises), cherchant dans l’ailleurs digitalisé du New Media leurs informations et leurs repères.

image

Une question brûlante était donc posée : est-ce que les médias traditionnels sont encore influents ? Si oui, que peuvent-ils faire pour le rester, si non, comment le redevenir ?

Corrélativement, d’autres questions relativement essentielles devaient émerger du débat : Quels sont les nouveaux comportements du public en matière de consommation de l’information ? Qui sont les nouveaux influenceurs ? Quelle est la confiance des Français dans l’information et la presse ? Jusqu’où les médias peuvent et doivent aller pour adresser ces nouveaux enjeux sans pour autant perdre leur âme ?

Les grands médias restent influents pourvu qu’ils mutent

Les chiffrent parlent. Que disent-ils ? Que les grands médias sont toujours aussi influents qu’avant d’après Stéphane Bodier, Président de Mediabrands et de l’OJD. Et de nous sortir à titre d’exemple un camembert bien classique, mais très parlant sur l’évolution de la diffusion du journal Le Monde : si la répartition a changé de façon très importante entre le papier et le numérique, son prestige semble intact. Si en 2003 la diffusion papier de 398 000 ex., s’est tassée en 2008 à 340 000, le quotidien a gagné en contrepartie 700 000 visiteurs quotidiens dé-dupliqués (une adresse IP) grâce à son nouveau site Internet. La baisse inéluctable du papier a continué en 2013 sur un petit 303 000, mais avec, signe des temps, 34 000 lecteurs en version numérique, et surtout 1 375 000 visiteurs on the Web. Sans oublier les 380 000 sur app mobiles et 100 000 sur tablettes. Dans la proportion projetée à 2018, le papier ne représentera plus que 12 % ! Mais les supports digitaux continueront sans problème leur progression (je ne rentre pas ici dans la discussion sibylline entre nombre de lecteur par numéro et nombre par ordi).

Pour Jean-Marie Charon, sociologue, spécialisé dans l’étude des médias et du journalisme, le changement ne se situe pas dans la baisse de diffusion des médias traditionnels, mais dans la structuration du marché des médias, la redistribution des pouvoirs. Autrefois il y avait un contact direct entre les émetteurs et les lecteurs, alors qu’aujourd’hui il y a pléthore d’intermédiaires, principalement ces grands acteurs du numérique ; et si l’on compare le niveau des clics et les vues entre Google, avec ses 40 millions et le Figaro, premier média online, et ses 13 millions, il n’y a pas photo. Reste à savoir qui influence qui, quoi et comment ? Comparer ce qui est comparable…

image

L’emprise des mastodontes de la révolution numérique

Il y a un autre élément qui illustre cette rupture structurelle dans les médias : l’innovation et l’investissement. Les Google, Facebook, Yahoo, Twitter sont de très gros investisseurs en R&D avec d’énormes moyens pour piloter des expérimentations, racheter des jeunes pousses prometteuses. Ils sont donc plus à même d’anticiper les innovations qui vont transformer le monde des médias de demain et nos usages. Ce n’est d’ailleurs pas un hasard si ce sont ces fleurons du digital qui petit à petit rachètent la presse traditionnelle mal en point, aux US, IBTMedia sur Newsweek ou Amazon sur le Washington Post, et bien sûr en France, le trio Berger-Niel-Pigasse sur Le Monde et le Nouvel Observateur, dans lequel Niel reste la figure emblématique.

Ce qui s’est passé aux États-Unis dans les années 2000 (ils ont toujours 10 ans d’avance sur nous) montre à quel point il y a un renouvellement complet de l’organisation éditoriale et donc des pôles influenceurs. On constate une réduction de 30 % du nombre de journalistes dans la presse avec une réorganisation digitalisée, démultipliée sur de nouveaux supports, parfois avec un basculement complet du papier vers le numérique comme le Christian Science Monitor ou Newsweek. Cela montre que l’époque actuelle est un immense laboratoire dans lequel la presse doit se réinventer au quotidien. Or la France n’a pas cette culture de l’expérimentation et du risque, ni les moyens financiers pour rater neuf projets sur dix, sachant que c’est seulement le dixième qui offrira le jackpot.

Les nouveaux médias comme “matière relationnelle”

C’est aussi et surtout un changement de culture, de méthode, de génération, comme le rappelle Aude Baron, rédactrice en chef du Plus – Nouvel Observateur. Les enjeux essentiels pour l’avenir de la presse se situent entre autres à deux niveaux : savoir créer et développer des communautés pertinentes, trouver de nouveaux moyens pour créer de la valeur ajoutée. Car l’information de flux, issue des agences de presse que l’on retrouve partout gratuitement n’a plus de valeur. Il faut donc bien réfléchir sur la façon de créer de la valeur ajoutée dans les médias numériques. Par exemple, la création d’une communauté attractive et qualifiée, l’enrichissement d’information par le multimédia… Il y a d’ailleurs des chances qu’à terme, on ne retrouve sur les versions papier survivantes, que les informations à très haute valeur ajoutée. Au Plus de l’Obs, chaque matin en réunion de rédac, la question qui se pose “n’est pas tant ce qui fait l’actualité, mais ce qui fait la conversation”.

Ce changement d’approche très structurant répond aussi à de nouveaux besoins en information à une nouvelle façon de faire référence avec des “experts” qui ne sont plus tout à fait les mêmes, et montre à quel point le journalisme de magistère, qui a contribué à la défiance, fait un peu has been. Un changement qui comme le souligne Baron a aussi un impact non négligeable sur des modèles économiques qui se cherchent. Les arbitres les plus importants pour les annonceurs aujourd’hui sont peut-être twitter, Facebook et les réseaux sociaux. A la différence des clics (et des claques) sur les sites Web qui peuvent être erronés, manipulés, l’influence sur les réseaux sociaux est beaucoup moins susceptible de trafics : le nombre des retweets, des likes, le “quali” des conversations qui se partagent sur les réseaux sont plus proches du réel.

image

Créer de la valeur ajoutée en éditorialisant le datamining

D’ailleurs, souligne Éric Scherer, directeur de la prospective de France Televisions, ce qui compte aujourd’hui, et fait la différence, “c’est d’être capable de mettre en contact nos contenus, nos informations et nos œuvres avec les gens là où ils sont, car le média convergeant pour tout le monde, c’est l’Internet, avec les mobiles et les tablettes”. Au-delà de l’idée que le médium est le message, il faut aujourd’hui “s’interroger moins sur ce que les médias font aux gens, mais sur ce que les font les gens des médias et des contenus”. Le poids d’un éditorial issu des médias traditionnels n’a plus rien à voir avec ce qu’il était il y a 10 ans. Peut-être sommes-nous en train de basculer du qualitatif au quantitatif, mais un quantitatif qui serait éditorialisé de façon très qualitative : des faits très précis soutenus par des infographies explicatives, des statistiques déployées en tableaux pédagogiques…

Par exemple pour prendre un événement récent, les gens seraient sans doute moins intéressés au lendemain d’une annonce de remaniement, de l’avis de tel ou tel éditorialiste connu, que des avis soutenus par des faits sur ce qu’à fait Manuel Valls, quels ont été ses votes à l’Assemblée nationale, la nature de ses relations techniques avec ses interlocuteurs, comment ont été financées ses campagnes, etc.  De l’analyse basée sur des faits concrets, des données, des éléments tangibles plutôt que des interprétations subjectives. Selon Scherer, “le « journaliste d’instinct” qui sait pour les autres est un peu terminé », le sens de l’histoire et ce qui va se passer demain s’appuiera beaucoup plus sur des données, sur l’utilisation des métadata, et notamment le datamining qualitatif…

On sait aujourd’hui que Google ou Yahoo en savent plus sur l’illettrisme ou sur nos habitudes alimentaires que les organismes de statistiques officielles français, simplement en analysant de façon très précise les recherches effectuées sur leurs moteurs Internet. Qui sera donc le référent de demain ? Et à partir de quels contenus ?

L’avenir repose en partie sur la contextualisation scientifique

On le voit aux États-Unis, de plus en plus de médias intègrent dans leur rédaction de grosses équipes pour gérer le datamining. De nouvelles unités de rédaction apparaissent avec des statisticiens, des algorithmiciens, des mathématiciens, des développeurs, des graphistes à même de contribuer à la création de valeur à partir d’un forage de données extrêmement pointu.

Ce qui prend de plus en plus d’importance dans la surinformation actuelle est la capacité est de contextualiser toutes ces données, les mettre en perspective pour offrir de nouveaux champs de compréhension au lecteur.

Mais aussi de nouveaux moyens pour valider le vecteur “influenceur”, très souvent galvaudé et biaisé ces dernières années par des effets de bord “buzzique”. C’est un changement de paradigme fondamental, insiste Michael Jais, directeur général d’Augure. Depuis quelques années, notamment avec son partenaire de l’INRIA, on a considérablement amélioré la mesure de l’influence sociale. La France est d’ailleurs en point dans ce domaine. “La première chose que nous avons observée” explique-t-il, “c’est que l’influence est toujours contextuelle. Par exemple, un blogueur dans la mode n’aura aucune influence sur le thème du réchauffement climatique. C’est ce qui le différencie d’avec un influenceur-célébrité, comme George Clooney, qui lui, aura de l’influence, quel que soit le sujet dont il parle”.

La deuxième chose, c’est la capacité de consolider les différentes prises de parole des influenceurs, qui souvent s’expriment sur différents canaux, de façon à pouvoir linéariser leur influence réelle.

Partant de ces constats, les chercheurs ont mis au point une méthodologie qui intègre trois critères pour calculer le “scoring” des influents : le premier c’est l’exposition (l’audience de l’influenceur et aussi la fréquence de ses interventions). Le deuxième critère c’est l’écho, c’est-à-dire la capacité d’être propagé sur les réseaux. Le troisième critère est la part de discussion, c’est-à-dire le focus d’un influenceur sur un sujet.  Si vous avez une grosse audience, et êtes repris, mais que vous n’intervenez que d’une manière totalement occasionnelle sur un sujet, cela aura un impact beaucoup moins important que si vous êtes “tête de pont”.

image

L’information robotisée : nouveau référent demain ?

Au final, je ne suis pas complètement sûr que les débats ont vraiment répondu à la question posée, que par ricochets successifs. Ce que j’en retiens c’est que le changement de paradigme dans la presse actuelle satellise les grands référents éditorialistes du passé, au profit d’une galaxie d’intervenants qualifiés (par des journalistes, cf. Le Plus de l’Obs), de journalistes adossés à des experts en datamining, pour offrir une information plus objective sans être trop aride, grâce à la mise en forme multimédia. L’information contextualisée, à la demande, sur tous supports, dans laquelle l’éditorialiation de qualité sera de plus en plus recherchée, sera-t-elle demain le nouveau référent ? Jusqu’où ira demain cette nouvelle production médiatique ?

On l’a vu, certains éditeurs de presse américains s’entourent de spécialistes en algorithmique, de développeurs pointus afin de générer des articles de façon automatique. Comment font-ils ? Ils construisent des algorithmes informatiques capables d’extraire les données pertinentes des dépêches d’agence pour en faire une synthèse et les réagencer dans un article intelligible. C’est ce que font notamment deux institutions de la presse US, Forbes et le L.A. Times. Le journaliste de demain sera-t-il un robot ? Peut-être que demain la presse de flux sera entièrement traitée par des cyborgs, laissant la presse d’analyse et de perspective aux humains. Michel Serres estime que l’externalisation de notre cerveau avec le digital est une chance pour développer notre créativité. Je suis assez d’accord avec lui, même si je reste moyennement optimiste sur le sujet….

Jean-Rémi Deléage

A lire en complément :

La réputation c’est bien, l’influence c’est mieux. Le Nouvel Economiste.

Lessons from the Digital First implosion. Newsosaure.

Why newsrooms are enlisting data scientists. Digiday.

 

Lorsque le bio devient de moins en moins bio

Dans son essai Les tambours de Gaïa se sont réveillés, paru en novembre 2013, Dominique Guillet, fondateur de l’association Kokopelli a lancé un pavé dans la mare. « En Europe et en Amérique du Nord, la plus grande partie des distributeurs d’aliments « biologiques » ont été rachetés par les grands cartels de l’agroalimentaire : Nestlé, Cargill, Coca-Cola, etc. En France, par exemple, Lima et Danival ont été rachetés par Hain Celestial, aux USA, derrière lequel se cache l’argent de Monsanto, Walmart, Philipp Moris, City Group et Martin Lockeed. En France encore, acheter les produits bios de Bonneterre, de Bjorg, d’Evernat, d’Allos, de Tartex, d’Alter Éco… c’est participer à la prospérité du Hollandais Royal Wessanen, l’un des grands groupes européens de l’agroalimentaire. En France encore, 95 % des légumes bios commercialisés sont produits à partir de semences de variétés hybrides F1 ; ce qui signifie que le consommateur bio, par exemple, a une “chance” sur deux d’acheter un melon bio “Monsanto/Bayer/Syngenta” puisque ces trois groupes de la chimie possèdent la moitié des 250 variétés de melons inscrites dans le catalogue national du GNIS ». Pire, l’auteur indique que les consommateurs naïfs ne savent pas qu’une centaine de compagnies proposant des aliments bios sont en fait la propriété du Cartel de l’agroalimentaire ou du Cartel de l’agrochimie, qui tous deux militent contre l’étiquetage obligatoire des OGM (source Therapeutes.com).  Oui, ça pique comme l’on-dit !

Des marques bio aux mains des plus grands

seedsSi ces faits se confirment, nous assisterons à une forme d’encerclement, dans lequel le citoyen n’aura plus beaucoup droit à la parole sur ce qu’il mange. Il s’agit d’un jeu de l’oie sans fin qui ne date pas d’hier… Coca-Cola prend des parts chez Innocent en 2009 (société spécialisée dans les fruits à boire produits selon des principes éco-responsables), pendant que d’autres géants s’offrent des « alter-entreprises » : Danone avale Stonyfield Farm en 2009, le spécialiste du yaourt bio américain fondé par un militant de la première heure, Gary Hirshberg et Monoprix rachète les magasins bio Naturalia la même année. Ils avalent les entreprises ou empruntent leur image durable à l’instar de la compagnie low-cost Transavia, filiale à 60 % du groupe Air France KLM, qui propose désormais une gamme de produits logotisés Fairtrade/Max Havelaar.

Sans parler de la Quinzaine du commerce équitable que les multinationales de la grande distribution ont transformé en manifestation clé du calendrier de la consommation, bien loin les mouvements militants qui dénonçaient naguère les méfaits du commerce mondial. Tous ces grands groupes sont, bien sûr, spécialistes de la virginité diététique. Mais l’opportunité marketing de produits vidés de tout contenu social et environnemental remplace difficilement la conviction. Avec parfois un double langage, proche de la schizophrénie, comme  l’enseigne Naturalia, rachetée par le groupe Casino via sa filiale Monoprix, qui sponsorise un très bon documentaire (Food Inc), totalement à charge contre les géants de la grande distribution, dont Casino est un représentant exemplaire…

Privatiser le vivant pour mieux régner

Dans la droite ligne des critiques de Richard Marietta, Président de Nature et Progrès, force est de constater que « l’hypermarché bio est devenu le laboratoire du commerce du futur ». Un labo dans lequel tout sera privatisé. Un simple exemple récent le montre : les grands semenciers européens ont décidé de privatiser la couleur des tomates ! Ils sont désormais en mesure d’acheter le droit d’utiliser, outre la couleur d’une tomate, la douceur d’un oignon ou la stérilité d’une aubergine. Comment est-ce possible ? Tout simplement parce que tous ces « traits natifs » qui existent à l’état naturel, mais qui ont été découverts, ou simplement identifiés par un sélectionneur, sont désormais brevetables. On croit rêver. Et bien entendu, l’accès aux traits brevetés est… payant. Tous les petits producteurs qui ne pourront pas payer seront hors-jeu.

Étape par étape, ce jeu des rachats entre multinationales et celui du lobbying a progressivement transformé les productions de nombreux petits acteurs du bio (pas tous heureusement) ou les semences, en un produit industriel comme un autre. Qui décidera demain qu’un produit est « bio » et selon quels critères ? : un état en faillite ou une transnationale au chiffre d’affaires colossal ? Le risque clair à terme est que les données de la nature soient monopolisées, le bio préempté, les discours de santé publique asservis aux intérêts de groupes sans visage. Reste aux écocitoyens à faire entendre leurs voix.

Article publié dans Natura-Sciences en juin 2015.

Ce que peut apporter la logique non-Aristotélicienne

 

« Nous avons trouvé une étrange empreinte sur les rivages de l’inconnu. L’une après l’autre, nous avons élaboré de profondes théories pour rendre compte de son origine. Finalement, nous avons réussi à reconstituer la créature qui a déposé cette empreinte.
Et voilà ! c’était la nôtre… »
Arthur S. Eddington (1) »

Toute notre éducation est basée sur la logique aristotélicienne (logique binaire). Cette logique gé­nère des « a-priorismes » et des structures mentales impropres à l’élargissement de la pensée. Le langage qui en  endécoule démontre assez ses limitations. Ces carcans ont été bien expliqués en 1933 par Alfred Korzybski. On comprendra alors à quelles vastes possibilités on ouvrirait le mental des élèves en les préparant à d’autres logiques.

La pensée « Maginot »

Dans son maître ouvrage de 1933, Science and Sanity (An introduction to non-aristotelian systems and general semantics. The International Non-Aristotelian Library – 1933), Alfred Korzybski fait référence à la « Maginot line mentalities » en dénonçant la stupidité des ploutocrates et intellectuels français qui se retranchaient du péril allemand juste avant la Deuxième Guerre mondiale, derrière cette barrière ô combien inefficace. Il utilisait alors un simple euphémisme, quelque peu prémonitoire, pour démontrer ce que pouvait être le symbole flagrant de l’attachement à des idées basées sur des semi-modèles et l’utilisation d’une logique qui n’est pas extensive.

La notion de système, d’organisation structurée, n’est pas départie de l’esprit humain qui l’a élaborée. Comme l’a souligné Edgar Morin, lorsque l’observateur mesure le « réel », le « réel » donne la mesure de l’esprit de l’observateur. Vous dites que vous laissez parler les faits ? Admirez l’art du ventriloque disait Alain. Ainsi l’étude des systèmes humains nous renseigne sur notre psychologie profonde, notre façon de penser, notre structure mentale.

Penser autrement : la logique des niveaux
Or ce que montre Korzybski dans sa Sémantique générale c’est que, dans notre prise de perception du monde, dans nos méthodes de communication (ou d’asservissement) avec la nature, nous procédons par abstractions successives, du niveau des « événements » au niveau des « objets » et enfin de leur verbalisation.

L’une de ses prémisses est que la « réalité », loin d’être indépendante de nous, est produite par notre système nerveux ainsi que par nos postulats culturellement, historiquement et socialement conditionnés. Et cette réalité dépend d’une façon étroite de la structure de notre langage : nos propos conditionnent nos perceptions et conduisent à une « vision » (à une réalité) qui les reflète (je différencie ici le Réel, vide, espace-temps, et la Réalité, qui est fabriquée-représentée). Toute structure par là même s’explique en termes de relations, où ces dernières, en tant que facteurs de structure, donnent peut-être le seul contenu de toute connaissance humaine.

À la suite de Korzybski, Boris Vian est convaincu que le pouvoir du langage est de cimenter les idées et les émotions, et, partant, de former les concepts et les institutions culturelles. Loin d’être un simple outil de communication, le langage détermine et biaise la nature de cette culture.

Structure collective et structure personnelle

Au cours de l’évolution humaine, l’homme a toujours cherché à s’adapter à son environnement en perpétuel changement. Il a ainsi créé de multiples grilles de lecture afin d’orienter ses stratégies d’action. Il a créé au fil des ans une civilisation, une culture organisée en systèmes. Mais ces systèmes sont devenus si complexes, si lourds à manier que leur seul entretien occupe l’existence entière de la race. Les systèmes de pensée, d’organisation sociale et économique ont évolué sans que le psychisme humain évolue à la même mesure. Le système est devenu une barrière matérielle entre les humains et leur environnement. Perdus au milieu d’un monde qu’ils ont construit et dont ils ne suivent plus que de loin les rapports de cause à effets, leur moyen d’action agit soit à retardement, soit il est inefficace face au système qui a sa propre spécificité et sa propre autonomie. Le mythe de Frankenstein, du monstre qui se retourne contre son créateur, resurgit. Sauf qu’en ce qui nous concerne le « Frankenstein digital » est à l’échelle planétaire.

La guerre, et son corrélat la vente d’armements, le chômage, l’inflation, la torture institutionnalisée, on tente de les juguler philosophi­quement à défaut d’en circonscrire matériellement les effets. Impuissance économique, sociale, et morale, tel est le constat.

Mais aux redresseurs de torts, à ceux qui sont prêts à refaire le monde tous les jours, il faut dire bien haut qu’il n’y a pas de recettes miracles. Toutes les idéologies sont inefficaces et dangereuses. Car c’est de notre rapport au monde des hommes dont il s’agit, et l’organisme créateur c’est aussi notre psychisme. Or, si l’outil de base est faussé, c’est notre système de réalité dans son ensemble qui est falsifié.

Nos opinions, nos croyances, nos comportements, nos représenta­tions mentales se moulent dans le creux de l’organisation sociale. Le coupable est désigné sans ambiguïté. C’est la société qui est coercitive, qui nous conditionne et nous manipule à notre insu. Mais, revers logique, la société c’est aussi la constitution dynamique d’individus isolés. L’interaction est donc en boucle fermée.

Ce feed-back évident nous pousse inéluctablement à étudier notre « empreinte ». Il s’agit alors de trouver de nouveaux modes d’évaluation. Ainsi l’évaluation proposée par le « système non aristotélicien » qui est fondé sur une approche fonctionnelle plutôt que zoologique ou mythologique, considère « l’Homme » en tant que « un-organisme-comme-un-tout-dans-un-environnement », selon les propres mots de Korzybski.

Il s’agit d’une topologie de l’être humain et de la société, non seulement cognitiviste, mais aussi holistique. L’l’Homme n’est plus concevable comme un être constitué de composants séparés : « corps », « esprit », « émotion », « intellect », etc., mais comme un tout indisso­ciable qui se construit dans la société humaine.

Penser autrement : les apports de la sémantique générale

On donne généralement au terme « sémantique » la définition de science des significations, qui a progressé du sens des mots au sens des symboles, et enfin au pouvoir humain de concevoir des significations.

Mais Korzybski donne un tout autre sens à ce terme. Pour lui, « la sémantique générale » n’est pas une « philosophie », une « psychologie » ou une « logique », dans le sens ordinaire. C’est une nouvelle discipline qui nous explique et nous enseigne l’utilisation la plus efficace de notre système nerveux. Il s’agit d’un système général d’évaluation qui permet d’améliorer nos systèmes d’évaluations personnels. Korzybski développe alors l’idée que les systèmes euclidien, newtonien et aristotélicien ne sont désormais plus que des cas particuliers de systèmes plus larges, non-euclidien, non-newtonien et non-aristotélicien. Ici il faut situer la notion de « non », qui n’est pas une négation, mais bien une généralisation.

Les systèmes généralisés incluent les systèmes particuliers. Korzybski parlait alors d’ »engineering humain » (mais pas au sens technocratique), de construire une science de l’homme pratique, non coupée du « réel », et qui vise à connaître les forces de liaison de la mécanique rationnelle pour l’étendre à l’espace épistémo­logique.

Il énonce plusieurs postulats :

  • La carte n’est pas le territoire ; elle nous donne seulement une représentation de celui-ci à l’aide de symboles, de signes conventionnels.
  • La carte est limitée et schématique.
  • La carte est autoréflexive (dans le langage, nous pouvons parler à propos du langage).

Or, dans la perspective aristotélicienne, le langage est le miroir (reflet fidèle) de la réalité. Cette perspective démontre son inefficacité dès que l’on désire éviter d’identifier le donné vécu d’avec sa représentation. D’une part, le mot n’est pas ce qu’il représente, et d’autre part, il ne représente pas tous les faits.

Il existe autant de possibilités de représentation et de symbolisation du vécu qu’il existe d’individus. Ainsi Korzybski situe trois périodes principales dans l’histoire de la pensée humaine, qui vont privilégier successivement le sujet (période grecque avec la logique d’Aristote et des stoïciens), l’objet (période « classique » avec la logique médiévale qui culmine au XIVe siècle) et enfin la période scientifique (logique symbolique moderne) où l’homme commence à comprendre que tout ce qu’il peut connaître est un phénomène dû conjointement à l’observateur et à ce qu’il observe (Bulla de Villaret H. : Introduction à la sémantique générale de Korzybski. Le courrier du Livre, 1973). Cette attitude, qui consiste à ne pas isoler les éléments humains de leur milieu et de leur temps, est appelée : non-élémentaliste.

Cette attitude s’oppose radicalement au positivisme logique anglo-saxon de la fin du XIXe siècle qui fonctionne sur les bases de la logique aristotélicienne et sur un réductivisme phénoménologique, ainsi qu’au matérialisme dialectique des marxistes (encore que, pas de tous).

Résoudre le réductionnisme aristotélicien

Depuis Aristote qui apparaît comme le premier théoricien du raisonnement et de la démonstration, l’Occident n’a cessé de baser sa démarche méthodologique sur ces préceptes. Et la raison issue de cette démarche n’est pas seulement une fonction théorique, mais aussi pratique : elle oriente notre action à partir de l’observable. Korzybski veut quant à lui, nous donner les moyens de résoudre le réductionnisme aristotélicien qui se retrouve dans la vie quotidienne.

Ainsi on ne devrait pas dire : « M. Durand est un égoïste », mais plutôt : « Dans telle circonstance, à telle époque, et à l’égard de telle personne, M. Durand s’est comporté d’une façon qui, selon mes propres standards, me paraît égoïste. » Ainsi la particularité « égoïste » n’existe pas dans le monde extérieur d’une façon qui soit indépendante de celui qui l’observe et l’éprouve. On ne connaît pas un événement ou un objet, on en reconnaît le caractère (2).

Or nous avons la fâcheuse tendance à effectuer des identifications et des projections sur l’observable, par rapport à nos postulats culturellement et socialement conditionnés, que ces postulats soient silencieux (sublimi­naux) ou non (« Des interactions subliminales à l’espace culturel ». Jean-Rémi Deléage, In Revue Métap­sychique, vol. XV, n° 2, 1981.).

Korzybski introduit ainsi la notion de « structurel différentiel » qui nous apprend à distinguer les différents niveaux d’abstraction. En effet, chaque niveau d’observation, et partant de réalité, représente une abstraction à partir de celui qui le précède et est l’objet d’une abstraction par rapport à celui qui le suit.

sd-labels-240wCe qui émerge de cette « logique des niveaux » est la notion de situation, liée à l’ensemble des processus évaluatifs. La qualité même de l’information dépend souvent des grilles théoriques et doctrinales qui y sont appliquées. Situer un phénomène, une suite d’événements, c’est se refuser à y adhérer et s’engager à ne pas les adopter inconsciemment.

L’attitude non élémentaliste, qui consiste à ne pas identifier et ne pas projeter, ne s’oppose pas à un cartésianisme ouvert, dont la conception de la raison se fonde sur trois points principaux :

  • Connaître des préjugés (conscients et nonconscients).
  • Éviter les référentiels sur/sous définis.
  • S’astreindre à une méthode.

Ces quelques points introduisent une notion que l’on pourrait appeler : « L’effet de situation« .

L’acte d’observer oriente le résultat

On a parlé le plus souvent en sciences humaines (et même physiques) d’effet d’expérimentateur quand ce dernier, pour étudier un phéno­mène, lui fait correspondre un modèle descriptif en énonçant des lois de comportement, issues d’inférences partiales. Il y a là expérimentation de façon orientée, subjective, ce qui modifie, voire fausse les résultats (par exemple dans les cas de Sheep/Goat effect). Or comme on l’admet aujourd’hui, même l’acte d’observer qui se veut passif oriente le résultat dans un sens précis. Tout observateur observe à travers lui-même et sa structure nerveuse humaine. Tout schéma perceptif en est tributaire, et l’on trouve le plus souvent sur le terrain ce que l’on y a apporté.

Korzybski, dans une contribution pour un symposium de psychologie clinique tenu à l’université du Texas, soulignait à ce propos : « Un nom (étiquette) entraîne chez un individu donné toute une constellation ou configuration d’étiquettes, de définitions, d’évaluations, etc., uniques pour chaque individu, conformément à son environnement socioculturel et linguistique, et à son hérédité en connexion avec ses désirs, ses intérêts, ses besoins, etc. » (Korzybski A. : Le Rôle du langage dans les processus perceptuels. The International Non-Aristotelian Library, 1951 – traduction française).

Si l’effet de situation se définit par rapport à la sphère affective, aux émotions, c’est aussi par rapport à un système logique. Les modèles de la psychologie cognitiviste insistent sur le fait que l’accomplissement d’une tâche, la prise de position, sont liés à un savoir, à une représentation du monde, par l’application systématique de principes de traitement, de stratégie, de liens logiques, etc.. Mais il y a aussi une structure socio-cognitive, où la logique sociale différente de la logique formelle se situe au-delà des processus intra-individuels.

Les êtres humains se jugent entre eux par rapport à un écart à la norme et cette norme est dépendante de l’effet de situation qui enracine ses critères dans une collectivité d’habitudes de pensées socialisées et justifiées.

Le lien avec la vie quotidienne est ici très étroit. Être conscient que tout donné vécu est le produit commun d’une réalité insaisissable et des structures nerveuses du sujet vivant, doit permettre dans une période non plus discursive, mais active (assimilation et intégration du système non A qui donne une grande souplesse des démarches mentales au niveau non verbal) une résolution des blocages affectifs et une certaine maîtrise émotionnelle de soi, notamment par le repérage de nos préjugés.

« Dans l’intérêt de la raison, rappelez-vous ceci : d’abord se produit l’événement, le stimulus initial ; en second lieu, le choc nerveux de l’événement par le canal sensoriel ; en troisième lieu la réaction émotionnelle fondée sur l’expérience passée de l’individu ; en quatrième lieu la réaction verbale. Or la plupart des individus identifient la troisième et la quatrième étape, et ignorent l’existence de la seconde et de la troisième. » [Van Vogts A.E. : Le Monde des non-A, (1945), J’ai Lu n° 362 ; Les Joueurs du non A (1948) J’ai Lu n° 397].

Korzybski illustre bien comment ce qu’il appelle la réaction cortico-thalamique retardée permet de mieux vivre l’effet de situation (intégration et équilibrage des informations entre le thalamus, siège des émotions, et le cortex, centre de discrimination). Il s’agit de différer la réponse émotionnelle brute, irréfléchie.

Différer ne signifie pas refouler nos instincts pour les compenser par une quelconque sublimation ; cela signifie les canaliser lorsqu’ils risquent d’être nocifs pour notre jugement ou notre comportement.

L’effet de situation n’est pas en nous, il « est » nous

Cet l’effet de situation doit être perçu consciemment par le chercheur en quelque domaine qu’il soit. Il atteint alors une objectivité plus efficace, même s’il existe dans cet effet un « noyau irréductible », irréductible à lui-même dans le sens où la pure objectivité ne peut exister actuellement. l’effet de situation n’est pas en nous, il est nous. Le monde perçu par chacun de nous ne serait plus un monde « objectif  » d’événements, mais un monde « subjectif » d’événements-significations hiérarchisé par niveaux.

Cette logique des niveaux (à laquelle je désire sciemment ne donner aucune définition) doit reposer sur un « contrat sémantique ». Lorsqu’on utilise un langage pour décrire un phénomène, on met en relation des verbes (être, par exemple) des noms et des adjectifs. On implique donc que les caractéristiques désignées par ces derniers existent dans la chose ou la personne représentée par le nom, alors qu’en fait elles découlent de la relation entre l’observateur et l’observé.

Si je dis : « Cette rose est rouge » cette phrase ne signifie rien en soi. La signification du terme employé (ici l’adjectif rouge) est déterminé par le niveau d’abstraction auquel on l’emploie. Sous un autre rayonnement que solaire, spécifiant des variables chromatiques différentes (longueurs d’onde, pureté, variable d’intensité) ou perçue par un observateur daltonien ou achromate, la fleur pourrait ne plus « être » rouge, mais verte, grise, bleue, etc.. Il faut apprendre à rejeter la fausse identification faite habituellement entre ce qui appartient à une fleur et ce qui appartient à la relation. Ce contrat permet de considérer le mot comme un symbole, et non pas d’y répondre comme à un signal.

La perpétuation de telles identifications et de telles projections (attribution à la nature ou la culture de « qualités » et de « propriétés » sui generis, alors qu’elles sont fabriquées par notre système nerveux) a maintenu l’humanité dans l’anthropomorphisme mental, en bridant son imaginaire.

Penser autrement : la logique des niveaux

Dans l’intérêt de la raison, il semble donc utile de tenir compte des distances entre :

  • Ce qui constitue l’objet et le résultat que nous en percevons.
  • Ce qui se « passe » et ce qui « nous apparaît ».
  • Ce qui « nous apparaît » et ce qui « apparaît à un autre observateur ».

Cette conscience d’abstraire, c’est-à-dire de savoir qu’on « laisse de côté » des caractéristiques de l’événement de par notre incapacité sensorielle et motrice de pouvoir l’englober dans son ensemble, avait fait dire à Korzybski qu’il fallait éviter de manipuler les abstractions d’ordre supérieur pour les faire correspondre aux niveaux inférieurs. Il insistait en ajoutant : « Nous ne devons pas interpréter les faits à la lumière de nos théories, mais bien construire nos théories à la lumière des faits. »

Le dysfonctionnement du raisonnement se retrouve dans cette caricature du non-sémanticien faite par Villaret : « Fréquemment, un non-sémanticien ne tient pas tellement à guider son existence d’après les faits : il préfère se laisser conduire par ce que nous pouvons appeler sa « mythologie » ; mythologie qui comprend l’image idéale qu’il se fait de lui-même, de son entourage, de son action, de son rôle ; mythologie dans laquelle on peut ranger des idées, des notions, des représentations, etc., qui sont les produits de processus d’abstractions incorrects dus, soit à lui-même, soit à la société au sein de laquelle il vit (…)

Quand il ne peut ignorer un fait, il tentera d’orienter l’interprétation de celui-ci de façon à éviter ou du moins à réduire le conflit qui peut surgir entre sa conscience et ce fait (dissonance cognitive) s’il le juge défavorable à sa sécurité psychologique, sa vanité, son orgueil, ses intérêts, ses idées préconçues comme ses préférences affectives. Le fait est-il au contraire jugé favorable à ces mêmes éléments que l’interprétation sera tendan­cieuse en sens inverse.

Il subit le plus souvent sans s’en rendre compte l’influence des facteurs qui, dans notre culture, permettent la paresse intellectuelle. De nombreux intérêts se liguent en effet pour empêcher la création de conditions favorables à l’éclosion d’une pensée lucide et indépendante. Sa conduite et ses opinions se baseront non sur ce qui se passe, mais sur ce qui se dit. Son opinion est faite sur tout et sur tous ; faite en jugeant l’ensemble d’après la partie, en sélectionnant et surgénéralisant arbitraire­ment certaines caractéristiques. Son opinion est souvent faite une fois pour toutes. Il ne tient pas compte des changements, des évolutions. Il remet rarement les choses en question. Alors que pour le sémanticien, une autre opinion que la sienne est une opinion différente, le non-sémanticien y voit une opinion fausse. »

Enfin, toute démarche doit en dernière analyse savoir se critiquer elle-même, remettre en cause sa théorie et sa méthodologie. Karl Popper parlait de « critère de réfutabilité », issu des travaux de la révolution relativiste, et qui pose qu’une théorie ne peut être scientifique si elle ne prévoit pas d’avance le cas d’un exemple, d’une expérience qui puisse mettre en péril tout son édifice. Ultime précaution qui vise cet article même, n’oublions pas que le langage a toujours raison. Comme le soulignait Henri Laborit, « il y a toujours un discours logique qui débouche sur une connerie… »

On trouvera dans les différents ouvrages de Korzybski des listes complètes de monographies et articles parus depuis 1930 et répertoriés à l’Institut de sémantique générale à Lakeville, Connecticut, USA.

Voir également ces rares vidéos de Korzybski :

Historical Note on the Structural Differential


(1) Le physicien  a donné un aperçu éclairant sur ce que pourrait mieux nous faire comprendre la célèbre non-définition de Korzybski à propos de l’Homme, cet « organisme-comme-un-tout-dans-un-environnement » : « Et cependant en ce qui concerne la nature des choses, cette connaissance n’est qu’une coquille vide, une forme de symbole. Connais­sance de la forme structurale et non connaissance du contenu. À travers tout le monde physique circule ce contenu mystérieux, qui sûrement doit être la matière même de notre conscience. Ici une lueur apparaît qui fait soupçonner des aspects profondément enfouis dans le monde de la physique et cependant impossibles à atteindre par les méthodes de la physique. Plus encore, nous avons découvert que là où la science avait progressé le plus loin, l’esprit n’avait fait que retrouver dans la nature ce que l’esprit y avait mis.  Extrait de Space time and gravitation, an outline of the general relativity theory, 1920.

(2) Le poète Fernando Pessoa est sans doute celui qui avec un verbe enchanteur a su rendre le mieux, de mon point de vue, la complexité de cette approche.

Ce papier a été publié la première fois dans la Revue 3e Millénaire. Ancienne série. No 10. 1983. Il a été légèrement remanié depuis. jrd

Photo de Une : Utopiales 2015, jrd (cc) ; AK, D.R., Façade d’immeuble à Paris, jrd (cc)