Will Plan S support or pervert Open Access ?

[Version française ici]

[Please read also rectifications and comments by Johan Rooryck, executive director of cOAlition S (rooryck.org) below]

Since January 1, 2021 the landscape of scientific communication, mainly in Europe, has changed profoundly and few researchers seem to be aware of the importance of the event.

A new requirement from major research funding bodies aims to put an end to decades of tradition in scientific publishing, where researchers deliver their research results free of charge (in the sense that they do not pay for publication and the publisher does not remunerate them either) in journals whose publishers sell subscriptions to universities and other research institutions as well as to interested readers.

Plan S enters the scene

Convinced of the growing trend over the past 25 years towards electronic communication, several major research funding organisations (17 agencies and 6 foundations, including two of the world’s largest funders of biomedical research, the Wellcome Trust and the Howard Hughes Medical Institute), have joined together in an alliance, « cOAlition S« . They have designed a « **Plan S** » to break down the subscription toll barriers and accelerate scientific progress by allowing freer and quicker sharing of methods and results.

Plan S offers a real opportunity to open the access to scientific literature produced with public means or coming from disinterested foundations. It requires scientists funded by cOAlition S member organisations to make their articles immediately accessible for free on line upon publication.

Researchers have several ways of complying with Plan S, either by paying publishers a fee to make an article freely available on a journal’s website, or by depositing the article in a free public repository from which anyone can download it. A verification tool enables researchers to check that the journal in which they plan to publish an article is in compliance with Plan S.

Will Plan S succeed in inducing the desired effects ?

Open access is a growing success. Since 2017, the majority of new articles in all academic disciplines, especially in science, have been published in open access. In 2020, at the request of UNESCO, most publishers removed the toll barriers for articles related to the COVID-19 pandemic in order to rapidly understand the characteristics of the SARS-CoV-2 virus and to accelerate the development of vaccines and treatments. In this respect, the COVID-19 pandemic has brought home to many the usefulness, if not the absolute necessity, of instant and open communication in the face of a large-scale collective challenge.

However, cOAlition S has not managed to expand significantly beyond Europe. Not all European research funds have, or have yet, joined. Major research funding agencies in China, India and the United States have expressed support in principle for Open Access, but have not joined Plan S. The impact of Plan S will therefore only be felt on a portion of the world’s scientific literature. Without wider adherence, the plan risks putting compliant researchers at a disadvantage internationally.

Another danger is that, because of its compulsory nature (which is also its strength and its chance to work well), Plan S offers traditional publishers a tempting opportunity to charge excessively high publication fees (known as APCs, article processing charges), if not to cover costs but rather to make up for the loss of income from cancelled subscriptions. Plan S pledges to set a cap on publishing fees, but this will not prevent wealthy researchers from supplementing their own funds.

What is the benefit for the authors ?

Authors are very concerned about the impact factor (IF) of the journals they publish in, because of what is usually required of them, unfortunately. However, several studies report that the number of citations of open access articles, even under conditions where the article is not given a journal IF, is higher than that of traditional articles with a reading cost. This trend has increased dramatically with the COVID-19 pandemic, but the citation advantage only applies to high quality articles. Other studies have shown that open access articles demonstrate greater reach if other measures are applied, such as the number of downloads and consultations online or in social media, or even in the general or popular press. These elements confirm that open access reaches a wider audience than just the scientific community to access the information.

Does Open Access have a cost?

In the so-called Gold Open Access, articles are licensed to be freely available upon publication and, in compensation, the publisher gets a royalty to cover the cost of publication. This new mechanism allows immediate access to scientific information and is therefore a victory for the Open Access movement in this respect. On the other hand, if it amounts only to a transfer of the editorial cost from the reader to the author, it is a failure in financial terms, especially if the process is interrupted in the middle of the transition process and if subscriptions persist alongside new initiatives, which is the case today. In recent years, the average cost of publishing an article for its author was around €2,200 and could reach €4,000 or more. Such prices far exceed the real cost of the publishing work. The Nature family of journals has set its maximum open access price at €9,500 and Cell Press (Elsevier) will charge €8,130 for an article in its flagship journal, Cell. According to these publishers, such exorbitant rates would be justified by the fact that the reputation and prestige of their journals attracts an excessive number of article proposals and that the necessary sorting, in the absence of payment per submitted manuscript, involves a huge amount of work.

Double payment, or when research institutions are being trapped

More and more research institutions, particularly in Europe, are entering into agreements (transformative agreements) whereby they pay a single fee to a publisher covering both publication costs and open access. The largest such agreement was concluded in January 2020 between Springer Nature and more than 900 German research institutions and libraries . Moreover, this system does not eliminate journal subscriptions, but simply provides immediate access to specific articles at the request of the author, thus complying with Plan S. Thus, a hybrid system is being created where an article – and the knowledge it contains – is not only provided free of charge by the author to the publisher, but is actually published on account of the author and is part of a journal that is otherwise sold by subscription. The hybrid system with double pay wished by some publishers immediately leads to extra costs for researchers and extra profits for publishers.

The good old « Green Road to Open Access »

An older variant, called the « green road » (* Green Open Access *) allows authors to avoid publication costs. In this formula, authors publish in journals – even those that use the reader-pays principle – but deposit their article immediately in an online repository. This process has become a legal obligation for the publication of publicly funded research in many countries, including the USA (for legal provisions in Belgium, see the Belgian Open Access website . These institutional repositories have thus grown considerably. The *Directory of Open Access Repositories* provides a list of several thousands. Publishers generally impose an embargo of 6 or 12 months before authors can open the archived document and make it available free of charge but nowadays many publishers allow authors to immediately deposit a final version of a peer-reviewed article in an institutional repository. The embargo policies of thousands of journals are listed and kept updated in a database called Sherpa/Romeo.

Plan S integrates the green road but it is mandating the immediate open access without embargo. Plan S accepts this form of Green Open Access, but adds a provision requiring accepted manuscripts to be licensed for immediate free distribution. This provision is contested by many publishers who want to require payment by the author in this case. The debate is not over yet.

Will the fees for authors be controlled ?

When a grantee’s research is published, Plan S requires publishers to disclose their rates to funders, including the cost of services such as pre-selection, organising peer review, writing improvement and proofreading. cOAlition S is committed to openly sharing this information with authors and institutions, with the hope of ensuring some level of control over prices.

Is the move to Open Access an ethical obligation ?

Although all those involved in scientific communication, researchers, librarians, decision-makers and publishers are nowadays generally aware of the usefulness and even the necessity of open access, many still hesitate to make a real commitment to it. Until now, research funders had never made it compulsory for research articles produced with their financial support to be published free of charge and immediately.

Some authors are also hesitant because of the requirement to publish in prestigious, high-impact journals to obtain tenure, promotion or the means to carry out their work. In addition, they may believe in the common misconception that journals offering only open access articles lack rigour.

Furthermore, paying to publish in journals that benefit from the prestige of their publishing house creates a blatant inequality between researchers in different institutions according to the financial means at their disposal.

Is there a risk that the Open Access spirit could be perverted ?

From its inception, the open access movement has postulated that publishing costs should be controlled by research institutions and funded by redirecting resources after canceling journal subscriptions. In reality, things have proved more complex. Although « transformative agreements” that cover both publishing and reading have rapidly increased the percentage of articles published in open access in some institutions, the details of these agreements are generally kept secret and so their scope is difficult to compare.

Nevertheless, it is clear that making most articles open access but for a fee, if tariffs are not a realistic reflection of actual costs, will explode university library budgets (Harvard estimates this increase at 71%) and mark large differences in the ability to publish. Indeed, this could create a vicious circle whereby well-funded researchers publish more, gain more visibility as well as recognition and, as a result, get more funding.

If Plan S does not explicitly monitor and maintain, within the terms of its open publication requirement, an insurmountable ceiling on publication costs, these perverse effects of budget explosion will be inevitable. This is now where the challenge of communicating public research lies.

Is Open Access the future of scientific publishing ?

Brazil and other Latin American countries have successfully developed a model for maintaining open access without per-article-use fees, AmeliCA , which has led to the creation of open access journals and repositories. By 2019, the region had the highest percentage of open access scientific articles in the world, almost two-thirds of its production. This initiative thus indicates the perfect feasibility of such an open system. Obviously, it comes from countries where universities are less affluent and could not afford to adopt costly practices that richer institutions tend to consider necessary, inherent to the research process itself, and included in regular research functioning costs.

The debate continues on how to control publication expenses. Many proponents of Open Access argue that making it more affordable will require a broad change in scientific culture. In particular, the evaluation committees will have to completely review their requirements in terms of publication metrics when assessing research and researchers.

Le Plan S et l’Open Access : soutien ou perversion ?

[English version here]

Depuis ce 1er janvier 2021, le paysage de la communication scientifique, essentiellement en Europe, a profondément changé et peu de chercheurs semblent être conscients de l’importance de l’événement.

Une nouvelle exigence de la part de grands organismes de financement de la recherche vise à mettre fin à des décennies de tradition dans l’édition scientifique, où les chercheurs publient gratuitement (au sens qu’ils ne paient pas pour être publiés et que l’éditeur ne les rémunère pas non plus) les résultats de leurs recherches dans des revues dont les éditeurs vendent les abonnements aux universités et autres institutions de recherche ainsi qu’aux lecteurs intéressés.

Entrée en scène du Plan S

Convaincus du bien-fondé de la tendance croissante des 25 dernières années qui ont vu l’essor de l’informatique et de la communication en mode électronique, plusieurs grands organismes de financement de la recherche (17 agences et 6 fondations, dont le Wellcome Trust et le Howard Hughes Medical Institute, deux des plus grands bailleurs de fonds de la recherche biomédicale au monde), associés en une alliance, «cOAlition S», ont élaboré un «*Plan S pour en finir avec les barrières de péage des abonnements et accélérer le progrès scientifique en permettant un partage plus libre des résultats.

Le Plan S offre une réelle opportunité d’ouvrir l’accès à la littérature scientifique produite avec les moyens publics ou provenant de fondations désintéressées. Il exige des scientifiques financés par les organismes membres de la cOAlition S qu’ils rendent leurs articles immédiatement accessibles gratuitement en ligne dès leur publication.

Les chercheurs disposent de plusieurs moyens pour se conformer au Plan S, soit en payant aux éditeurs une redevance pour mettre un article gratuitement à disposition sur le site web d’une revue, soit en déposant l’article dans un dépôt public gratuit d’où tout le monde peut le télécharger. Un outil de vérification permet aux chercheurs de s’assurer de la conformité au Plan S de la revue dans laquelle ils envisagent de publier un article.

Est-ce que le Plan S va induire les effets désirés ?

Le libre accès connaît un succès croissant. Depuis 2017, la majorité des nouveaux articles dans toutes les disciplines universitaires, surtout en sciences, ont été publiés en libre accès. En 2020, à la demande de l’UNESCO, la plupart des éditeurs ont supprimé les barrières de péage des articles sur la pandémie de COVID-19 afin de comprendre rapidement les caractéristiques du virus SARS-CoV-2 et d’accélérer le développement de vaccins et de traitements. À cet égard, la pandémie de COVID-19 aura fait comprendre à beaucoup l’utilité, voire l’absolue nécessité d’une communication instantanée et ouverte face à un défi collectif de grande envergure.

La cOAlition S n’a cependant pas réussi à s’étendre significativement au delà de l’Europe. Tous les fonds de recherche européens n’y ont pas, ou pas encore, adhéré. Les principaux organismes de financement de la recherche en Chine, en Inde et aux États-Unis ont exprimé leur soutien de principe à l’Open Access, mais n’ont pas adhéré au Plan S. L’impact de celui-ci se fera donc sentir seulement sur une partie de la littérature scientifique mondiale. Sans une adhésion plus large, le plan risque d’induire un désavantage pour les chercheurs qui doivent s’y conformer.

Un autre danger est que, par son caractère obligatoire (qui constitue aussi sa force et sa chance d’opérer), le plan S offre aux éditeurs traditionnels une opportunité tentante d’exiger des droits de publication (appelés APC, article processing charges) exagérément élevés, dans le but, non pas de couvrir les frais, mais de pallier le manque à gagner de l’annulation des souscriptions.

Quel intérêt pour les auteurs ?

Les auteurs sont très préoccupés par le facteur d’impact (FI) des revues où ils publient, et ceci en raison de ce qu’on exige d’eux, malheureusement. Cependant, plusieurs études rapportent que les citations d’articles en libre accès, dans des conditions où l’article n’est pass assorti d’un FI de journal, sont plus nombreuses que celles des articles traditionnels dont la lecture présente un coût. Cette tendance s’est encore amplifiée avec la pandémie de COVID-19, mais l’avantage de l’accès libre en matière de citations ne s’applique qu’aux articles de grande qualité (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3735696). D’autres études ont montré que les articles en libre accès ont une plus grande portée si on leur applique d’autres mesures telles que le nombre de téléchargements et de consultations en ligne ou dans les médias sociaux, voire dans la presse généraliste ou de vulgarisation. Ces éléments confirment que le libre accès permet à un public plus large que la communauté scientifique d’accéder à l’information.

L’Open Access a-t’il un coût ?

Dans ce que l’on appelle la «voie dorée de l’accès libre» (Gold Open Access), les articles bénéficient d’une licence les rendant librement disponibles lors de leur publication et, en compensation, l’éditeur perçoit une redevance destinée à couvrir le coût de la publication. Ce nouveau mécanisme permet un accès immédiat aux informations scientifiques et constitue donc une victoire de l’Open Access sur ce plan. Par contre, s’il n’est qu’un transfert du profit éditorial sur le dos de l’auteur et non plus du lecteur, c’est un échec sur le plan financier, surtout si le processus s’interrompt au milieu du gué et que les souscriptions persistent parallèlement aux nouvelles initiatives, ce qui est le cas aujourd’hui. Ces dernières années, le coût moyen de la publication d’un article pour son auteur était d’environ 2 200 € (https://microblogging.infodocs.eu/?p=8699), et pouvait excéder 4 000 €, des prix qui excèdent de loin le coût réel du travail d’édition à accomplir. La famille des revues Nature a fixé son prix maximum de libre accès à 9 500 € et Cell Press (Elsevier) facturera 8 130 € pour un article dans son fleuron, Cell. Des tarifs aussi exorbitants se justifieraient, selon ces éditeurs, par le fait que la renommée et le prestige de leurs revues attire un nombre excessif de propositions d’articles et que le tri nécessaire, en l’absence de paiement par manuscrit soumis, implique un travail gigantesque.

Le double paiement, piégeage des institutions de recherche

De plus en plus d’institutions de recherche, notamment en Europe, concluent des accords (transformative agreements) en vertu desquels elles versent à un éditeur une redevance unique couvrant à la fois les frais de publication et l’accès libre. Le plus important accord de ce type a été conclu en janvier 2020 entre Springer Nature et plus de 900 institutions de recherche et bibliothèques allemandes. Toutefois, ces accords ne couvrent que 3 % de la littérature scientifique. En outre, ce système n’élimine pas les abonnements aux revues, il ouvre simplement l’accès immédiat à certains articles bien particuliers à la demande de leur auteur qui se met ainsi en conformité avec le Plan S. Il se crée donc un système hybride où un article – et le savoir qu’il contient – est non seulement fourni gratuitement par l’auteur à l’éditeur mais est effectivement publié à compte d’auteur et fait partie d’une revue par ailleurs vendue par abonnement. Le système hybride de double paiement exigé par certains éditeurs aboutit d’emblée à un surcoût pour les chercheurs et à un sur-profit pour les éditeurs.

La bonne vieille « voie verte »

Une variante plus ancienne, appelée «voie verte» (*Green Open Access*) permet aux auteurs d’éviter les frais de publication. Dans cette formule, les auteurs publient dans des revues – même celles qui utilisent des systèmes de paiement par les lecteurs – mais déposent immédiatement leur article dans un dépôt en ligne. Ce procédé est devenu une obligation légale pour les publications des recherches financées par des fonds publics dans beaucoup de pays, y compris les USA (pour les dispositions légales en Belgique, consulter le site de l’Open Access belge. Ces dépôts institutionnels se sont ainsi fortement multipliés. Le *Directory of Open Access Repositories* en répertorie plus de 5.500. Les éditeurs imposent généralement un embargo de 6 ou 12 mois avant que les auteurs ne puissent ouvrir le document ainsi archivé et le mettre gratuitement à disposition de tous. Toutefois de nombreux éditeurs permettent aux auteurs de déposer immédiatement dans un dépôt institutionnel une version finale d’un article révisé par des pairs (les politiques d’embargo de milliers de revues sont répertoriées dans une base de données appelée Sherpa/Romeo).

Non seulement le Plan S intègre la voie verte mais il rend immédiate l’obligation d’ouverture, sans embargo. Cette disposition est contestée par beaucoup d’éditeurs qui veulent, dans ce cas, exiger un paiement par l’auteur. Le débat n’est pas clos.

Les frais pour les auteurs seront-ils contrôlés ?

La Coalition S cherche à exercer une pression à la baisse sur les prix d’édition en sollicitant leur transparence. Lorsque les recherches d’un bénéficiaire de subvention sont publiées, le Plan S exige des éditeurs qu’ils divulguent leurs tarifs aux bailleurs de fonds, y compris le coût des services tels que la sélection préalable, l’organisation de la révision par les pairs, l’amélioration de l’écriture et la correction d’épreuves. La coalition s’est engagée à partager ouvertement ces informations avec les auteurs et les institutions, avec l’espoir d’assurer ainsi un certain niveau de contrôle sur les prix.

Le passage à l’Open Access est-il une obligation éthique ?

Bien que tous les acteurs de la communication scientifique, chercheurs, bibliothécaires, décideurs et éditeurs soient généralement conscients aujourd’hui de l’utilité, voire la nécessité du libre accès, beaucoup hésitent à s’y engager réellement. Les bailleurs de fonds de recherche n’avaient jamais, jusqu’ici, tenu à rendre obligatoire la publication gratuite et immédiate des articles de recherche réalisés avec leur soutien financier.

Certains auteurs sont également hésitants en raison de l’exigence qui leur est faite de publier dans des revues prestigieuses et à fort impact pour obtenir une titularisation, une promotion ou des moyens de réaliser leurs travaux. En outre ils peuvent être victimes de l’idée reçue qui prétend que les revues qui ne proposent que des articles en libre accès manquent de rigueur.

Par ailleurs, payer pour publier dans des revues qui profitent du prestige de leur maison d’édition crée une inégalité flagrante entre chercheurs en fonction des moyens financiers dont ils disposent.

Le mouvement de l’Open Access risque-t’il d’être perverti ?

Dès son amorce, le mouvement pour l’accès libre a postulé que les frais d’édition doivent être contrôlés par les institutions de recherche et financés par une redirection des moyens affectés par les bibliothèques institutionnelles pour les abonnements aux revues qui seraient abandonnés. Dans la réalité , les choses se sont avérées plus complexes. Bien que les accords de « transformation » qui couvrent à la fois la lecture et la publication d’articles aient rapidement augmenté le pourcentage d’articles publiés en libre accès dans certaines institutions, les détails de ces accords sont généralement secrets et leurs périmètres sont difficilement comparables.

Néanmoins, il est clair que le fait de rendre la plupart des articles en libre accès mais payants pour l’auteur, si les tarifs ne sont pas un reflet réaliste des coûts réels, fera exploser les budgets des bibliothèques universitaires (Harvard évalué cette augmentation à 71 %) et marquera de grandes différences dans la capacité de publier. En effet, cela pourrait créer une spirale par laquelle les chercheurs bien financés publient davantage, acquièrent plus de visibilité, une plus forte reconnaissance et, par conséquent, obtiennent plus de financement.

Si le Plan S ne veille pas explicitement à surveiller et maintenir, au sein des termes de l’obligation de publication ouverte que la cOAlition S impose aux chercheurs un plafond infranchissable des frais de publication, ces effets pervers d’explosion des budgets seront inévitables. C’est maintenant sur ce point précis que réside l’enjeu de la communication des recherches publiques.

L’Open Access est-il l’avenir de l’édition scientifique ?

Le Brésil et d’autres pays d’Amérique latine ont développé avec succès un modèle de maintien du libre accès sans frais de publication par article, AmeliCA , qui a permis la création de revues et de dépôts d’articles en libre accès. En 2019, la région détenait le pourcentage le plus élevé au monde d’articles scientifiques en libre accès, près de deux tiers de sa production. Cette initiative indique donc la parfaite faisabilité d’un tel système ouvert. Évidemment, elle émane de pays où les universités sont moins nanties et qui ne pouvaient se permettre d’adopter des pratiques coûteuses que des institutions plus riches tendent à considérer comme nécessaires, inhérentes au processus de recherche lui-même, et à intégrer dans les frais de recherche.

Le débat se poursuit sur la manière de contrôler les coûts de publication. De nombreux partisans de l’Open Access affirment que le rendre plus abordable nécessitera un vaste changement dans la culture scientifique. En particulier, les comités d’évaluation devront revoir complètement leurs exigences en termes de publications à l’égard des chercheurs.

[Lire les rectifications et commentaires par Johan Rooryck, executive director of cOAlition S (rooryck.org) au bas de la version anglaise]

Vous avez dit “un” vaccin ?

Bien que souvent sollicité, je ne me suis encore jamais exprimé sur “le” vaccin COVID. Et pour cause : quand on ne sait rien, on ne dit rien, c’est un principe qui m’est cher et qui n’est pas partagé par tout le monde.

Jusqu’au 10 décembre 2020, aucune donnée issue d’une étude scientifique sérieuse n’était disponible en matière de vaccins anti-Covid-19. On savait qu’il y en avait en préparation, certains d’entre eux étant d’une conception totalement nouvelle, basée sur des principes fondamentalement différents de ceux des vaccins connus. Toutefois, il s’agissait là de communiqués de presse et non de publications scientifiques sans lesquelles il n’est pas possible de donner un avis. Un tel manque de précisions conduit inévitablement à la prolifération de légendes qui compliquent la mission des décideurs politiques.

Personne ne devrait être blâmé pour la longueur de l’attente : on parle ici de vaccins à développer pour combattre un virus encore inconnu il y a moins d’un an. On n’est pas du tout dans les délais habituels qui prennent généralement plusieurs années de développement sans compter la production industrielle. La sensation parfois exprimée dans la presse d’une attente interminable est simplement proportionnelle à l’angoisse qui s’est emparée de l’espèce humaine en 2020 comme on n’en avait pas connue depuis plus d’un siècle.

Cette pression, renforcée par l’idée répandue – quoi qu’inhabituelle (et contestée) – selon laquelle la vaccination serait la seule issue possible de la crise sanitaire, a fait littéralement exploser la demande pour un vaccin, au point d’induire une véritable précipitation qui n’a pas manqué d’en inquiéter plus d’un.

Une grande diversité de vaccins

L’inquiétude, chez beaucoup de spécialistes habitués aux campagnes de vaccination et à l’abondance de précautions prises généralement, s’est amplifiée en raison de la diversité des approches vaccinales annoncées, diversité qui devrait empêcher qu’on évoque encore “le” vaccin, comme s’il n’y en avait qu’un. En effet, on compte aujourd’hui pas moins d’environ 150 vaccins en développement dans le monde, dont 38 auraient déjà atteint l’étape de l’évaluation clinique (108 essais en cours). À ce jour, 11 vaccins différents sont en phase 3, donc proches d’une validation finale par les instances décisionnelles.

🦠 Quatre vaccins utilisent un virus inactivé ou atténué (BBPI-CovV et WIBP de Sinopharm, CoronaVac de SinoVac, Covaxin de Bharat Biotech).

🦠 Quatre vaccins utilisent un vecteur viral non-replicatif (ChAdOx1-s d’AstraZeneca, Ad5-nCoV de CanSino, Ad26CoV2.s de Janssen et Gam-COVID-Vac ou Sputnik V de Gamelaya).

🦠 Un vaccin utilise une protéine virale sous-unitaire (NVX-CoV2373 de Novavax).

🦠 Enfin deux vaccins utilisent un ARN messager encapsulé dans des micromicelles lipidiques (mRNA-1273 de Moderna et BNT162b2 de Pfizer/BioNTech). Deux autres vaccins à ARNm (de CureVac et de l’Imperial College London) ne sont pas encore en phase 3.

On le voit, le paysage est étendu et varié. On peut légitimement s’attendre à des différences entre les candidats vaccins, y compris dans la même catégorie. Leur immunogénicité (leur pouvoir de stimuler notre immunité au virus), leur innocuité (absence d’effets secondaires dérangeants, voire dangereux), leurs conditions et durée de conservation, sont toutes des caractéristiques qui risquent fort de les distinguer. Logiquement, tous ces éléments auront fait l’objet de vérifications sérieuses par les agences officielles (pour nous, Européens, c’est l’Agence Européenne des Médicaments, l’EMA, sur les avis de laquelle les agences nationales s’aligneront) avant leur mise sur le marché. Une seule donnée sera inaccessible quoi qu’il arrive : leurs éventuels effets à long terme, une information pour laquelle on a besoin de longs délais et c’est là un luxe que la politique de vaccination immédiate ne peut s’offrir.

Ce constat de diversité présente une autre implication : nous n’avons pas encore reçu d’information sur l’identité du vaccin qui sera administré à chaque personne individuellement. Certains types de vaccins seront-ils plutôt réservés à certaines catégories de personnes ? Ou vaccinera-t’on dans l’ordre d’arrivée des fournitures ? Ces questions, pourtant cruciales, restent encore aujourd’hui sans réponse, ce qui pourrait conduire à une grande improvisation…

Les résultats des essais d’un des vaccins à ARN

Les vaccins qui suscitent le plus de questions et donnent le plus d’espoir, sont ceux qui marquent une rupture avec les concepts désormais classiques et bien connus. En l’occurrence, les vaccins à ARN messager (ARNm).

Ce 10 décembre 2020 est paru dans le New England Journal of Medicine un article publié par l’équipe de (et autour de) Pfizer, le producteur d’un vaccin à ARNm développé par une société allemande de biotechnologie, BioNTech, dont un des conseillers scientifiques est le Prix Nobel Rolf M. Zinkernagel. L’article décrit les résultats des essais de phase 3 du vaccin BNT162b2 mRNA Covid-19 qui s’administre en deux fois. Ces résultats sont très encourageants puisque dans le groupe des vaccinés, 8 personnes seulement ont été testées positives et une seule a manifesté les symptômes de la Covid-19 alors que 162 étaient positives et 7 symptomatiques dans le groupe contrôle de même taille. La différence est considérable et explique l’annonce publique d’une efficacité de l’ordre de 90-95%.

Les défauts

Il faut toutefois remarquer que le nombre total de volontaires ayant reçu les 2 doses du vaccin ou du placebo était 21.720 et 21.728 respectivement. Ceci implique que, dans le groupe contrôle n’ayant pas reçu le vaccin mais le placebo, seuls 0,75% ont contracté le virus par la suite et 0,03% ont manifesté des symptômes de la Covid-19… La protection vaccinale contre la maladie, pour incontestable qu’elle soit, n’a donc pu être réellement offerte qu’à 6 personnes sur plus de 21.000 (0,027%). Et ceci est dû non pas à un manque d’efficacité du vaccin mais à la faible infectiosité du virus SARS-CoV-2 en conditions naturelles dans la population majoritairement jeune et en bonne santé qui a participé à l’expérience, et dont on peut penser qu’elle aura respecté les consignes de protection recommandées à la population. Malheureusement, la proportion de personnes “à risque” dans cette étude ne nous est pas révélée. Seule la proportion de >55 ans (42%) et la moyenne d’âge (52 ans) apparaissent. Le lancement des vaccinations avec ce produit ayant déjà eu lieu en Grande Bretagne et aux USA, et les personnes à risque étant prioritaires dans ces campagnes, leur protection effective sera donc vérifiée a posteriori…

Les perspectives

Les risques concernant des effets délétères du vaccin sont, en théorie, minimes et la taille de la population testée (21.720) est inhabituelle. L’ARN est une molécule rapidement décomposée dans nos cellules qui, par ailleurs, ne disposent pas de la transcriptase inverse (l’enzyme qui peut rétro-transcrire de l’ARN en ADN et que seuls les rétrovirus possèdent). Le risque d’une intégration de l’ARNm dans les gènes du vacciné est donc en principe nul. En raison de la mise en route accélérée de la vaccination, on ne peut disposer actuellement d’aucune information sur d’éventuels effets à long terme des vaccins à ARNm.

Bien que cela doive encore être démontré, il est très possible que la vaccination à ARNm favorise tout particulièrement l’activation du système immunitaire dit “cellulaire” (en stimulant les lymphocytes T cytotoxiques), une réponse plus efficace encore contre les virus que la production d’anticorps. Ceci constituerait un avantage incontestable pour cette technologie d’avant-garde.

Si, comme on l’espère, la vaccination par ARNm démontre son innocuité et son efficacité, les deux qualités qu’on attend d’un vaccin, nous assistons probablement à une révolution conceptuelle considérable. En effet, on pourrait alors imaginer d’utiliser à l’avenir la même approche pour se protéger contre quantité d’autres agents infectieux. On pourrait ainsi “composer” sur ordinateur couplé à un synthétiseur de polynucléotides, des ARNm correspondant à toutes sortes de virus, bactéries, protozoaires parasites. On peut même imaginer de concevoir des vaccins de ce type contre certains cancers…

Publier un article de recherche pour 9.500 €, c’est dans vos cordes ?

Springer Nature, la société mère de la série de revues ‘Nature’, permettra pendant 4 ans aux chercheurs affiliés à environ 120 institutions allemandes de publier chaque année, à partir de 2021, environ 400 articles en Open Access dans ses 34 titres. L’accord sera proposé aux institutions qui sont actuellement abonnées à la série des revues ‘Nature’ et la Max Planck Society, avec ses 86 instituts de recherche, a déjà signé. Seuls les articles provenant d’institutions signataires seront en Open Access. L’éditeur estime qu’environ 3,5 % des articles de ses revues seront concernés.

Les institutions qui s’inscrivent paieront un montant fixe qui couvre la lecture et la publication ouverte d’articles dans les 34 revues, ainsi que l’accès aux articles de 21 titres de ‘Nature Reviews’. La redevance est calculée sur la base de l’estimation selon laquelle le coût moyen de chaque article en Open Access se monterait à 9.500 €, un coût que de l’éditeur justifie par l’obligation d’évaluer un grand nombre d’articles dont 92 % sont rejetés.

[Source: The Scientist, Oct 21, 2020]

The need for Open Science, in times of pandemic and far beyond


This column appeared in French in the Belgian newspaper Le Soir (October 31, 2020) and in the French online newspaper Mediapart (November 3, 2020), both in Open Access.


Unprecedented crisis, unprecedented scientific effort

The emotion aroused by COVID-19 was the driving force behind the sharing of research results with unprecedented speed and openness. Allowing rapid and unimpeded access to knowledge became obvious very quickly to everyone, doctors, epidemiologists, virologists, infectious diseases specialists, but also psychologists, sociologists, economists, statisticians, modellers and also the public, through the media. But will this new, radically open paradigm of research communication lead to a permanent change in the way researchers communicate the results of their work?

A rusty background

The current context of the pandemic and the socio-economic upheavals entailed by the effort to counter it, but also other major concerns of humankind such as climate change, energy transition and world hunger, require reliable research results, shared equitably and without delay at the global level.

The scientific communication system has hardly been modernised in recent decades and has even become archaic in view of the modern developments in communication. Delays between submission and publication of articles and monographs are excessively long : by the time they appear, some research is already out of date. In addition, publication costs are far too high in relation to the real cost of electronic dissemination.

The pitfall also lies in the way researchers are evaluated. Based on the number of their publications and the prestige of the journals that publish them, assessment urges scientists to focus on writing articles as if it were a goal in itself. This type of evaluation does not do justice to the merits of the researcher and its effects on science are perverse: a plethora of publications and a decline in their quality (1). In the humanities and social sciences, it depreciates the use of vernacular languages, which is important in research related to a more local context.

Today, digital technologies make it possible to accompany an online publication with all the data used, the metadata as well as the experimental or observational protocols, or even to open the text to readers’ comments. However, on a daily basis, peer review remains stuck on a process established after the Second World War, itself inspired by an editorial model that dates back to the first scholarly journals of the 17th century. The traditional Peer Review is singularly lacking in clarity and transparency, and quality control is neglected. A bias has developed in favour of research themes that reflect the concerns of wealthy countries. Peer review is a slow and time-consuming process. It does not always identify genius – considered eccentric by the experts consulted – and is not adapted to the publication of negative results, necessary for the advancement of knowledge. However, it remains essential for the validation of knowledge by specialists in the field and allows progress towards consensus among scientists. Open review (2), as a component of Open Science, offers a valuable opportunity to eliminate most of the shortcomings of peer review and to move towards greater accountability of expertise.

If these problems have persisted for many years, it is also because the bulk of research communication was gradually handed over in the second half of the 20th century to an oligopoly of commercial for-profit entities (3), under the influence of men such as media mogul Robert Maxwell. Listed on the stock exchange, some of these major publishers reap profit margins of 30 to 40%, reselling to universities the articles that researchers, financed by taxpayers, have written and evaluated on a voluntary basis !

Anonymous. Found on the Internet.

It must therefore be acknowledged: our scientific communication processes are neither efficient nor adapted to the challenges of our time.

A perfect opportunity to open

During the COVID-19 pandemic, governments and funders around the world demanded rapid and open sharing of results and data relevant to the disease. Virtually all publishers complied with this moratorium. It has highlighted the effectiveness of barrier-free sharing of scientific information, just as longstanding advocates of Open Access have long claimed. The time between the submission of articles and their publication has been considerably reduced. In addition, the « pre-publication » pioneered for almost 30 years by ArXiv (releasing the manuscript online before it is published as an article in a specialised journal) and the sharing of raw data have intensified.

Of course, concerns were expressed about the quality control of the results shared in this way under the pretext of urgency. A legitimate scientific controversy over the drugs to be used has even degenerated into a sterile polemic on social networks and in the press. However, it was indeed the immediate exposure, in free access, by the publishers of the journals involved, that enabled the scientific community to detect fraud and led their authors to retract the articles. The wanderings observed in the communication on COVID-19 were an opportunity to show that free and open publication does not contradict either scientific quality assurance or research ethics.

A new dawn for public research ?

The big question now is whether this new paradigm for communicating research, making it radically open, which has proved successful in the crisis, will lead to long lasting change. Indeed, some publishers who had opened up access to publications on the new coronavirus have already started to put their content behind toll gates or have indicated that they will do so in the near future. Play time is over.

In the traditional scientific publishing system, it is the publishers who appear as the custodians of the orthodoxy of science and of the quality appraisal of publications. In 2020, on the other hand, it is the principles of Open Science (4) that have provided everyone with the clear, verified and/or verifiable information they need. Thanks to the extremely rapid circulation of information from experimental and clinical research, Open Access has enabled the medical management of the pandemic to progress and the average severity of infections to be significantly reduced within six months.

It is therefore urgent, for the general interest, to learn the lessons of this dramatic episode and to take steps to ensure a completely free flow of information from public research, whatever its nature. We must begin now to reallocate our resources into open community infrastructures and services that are in line with current research and societal concerns (5). Let’s not go back to the way things were after the pandemic disappears eventually. The challenges facing our society will never again tolerate locked-up knowledge.


Bernard RENTIER, virologist, Rector Emeritus of the University of Liege, member of the Royal Academy of Sciences, Letters and Fine Arts of Belgium

and

Marc VANHOLSBEECK, PhD in communication sciences and lecturer at the Université Libre de Bruxelles

for Carta Academica (https://www.cartaacademica.org/)


(1) Gingras, Y., & Khelfaoui, M. (2020). Why the h-index is a bogus measure of academic impact. The Conversation. https://theconversation.com/why-the-h-index-is-a-bogus-measure-of-academic-impact-141684

(2) Pontille, D., & Torny, D. (2020). Peer Review: Readers in the Making. Reassembling Scholarly Communications: Histories, Infrastructures, and Global Politics of Open Access, 113.

(3) Larivière, V., Haustein, S., & Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PloS one, 10(6), e0127502.

(4) Rentier, B. Open Science, the challenge of transparency (2018) – Éditions de l’Académie Royale de Belgique, Coll. L’Académie en Poche nº114, 152p. E-book in Open Access.

(5) Tennant, J., Crane, H., Crick, T., Davila, J., Enkhbayar, A., Havemann, J., Kramer, B., Martin, R., Masuzzo, P., Nobes, A., Rice, C., Rivera-López, B., Ross-Hellauer, T., Sattler, S., Thacker, P., & Vanholsbeeck, M. (2019, juin 01). Ten Hot Topics around Scholarly Publishing. Publications, 7(2), 34. doi:10.3390/publications7020034.

Covid-19, un tournant pour l’Open Access ?

La pandémie de Covid-19 a bouleversé la communication biomédicale, du moins sur le sujet précis de l’infection par le SARS-CoV-2, comme Marc Vanholsbeeck et moi l’avons évoqué dans une chronique de Carta Academica dans Le Soir de ce samedi 31 octobre, reprise par Mediapart ce mardi 3 novembre. En effet, un moratoire a été lancé et largement respecté par la plupart des éditeurs scientifiques dans le monde. On peut s’en réjouir. Le succès de cette initiative est, pour nous qui prônons l’ouverture sans limitation de l’accès public, immédiat et gratuit à l’information scientifique, une démonstration, par la crise, de la légitimité de notre action et de la nécessité d’étendre ce mode de communication à l’ensemble de la recherche, urgente ou non.

Dans la foison d’articles parus durant cette année 2020, beaucoup ont été contredits voire même rétractés. Ils ont permis, via les réseaux dits sociaux, aux plus incompétents de donner bruyamment leur opinion sur l’origine du virus, ses effets sur le système immunitaire, sa capacité de muter, les molécules actives contre lui, etc. Tout comme pour les changements climatiques, n’importe qui pense pouvoir rendre public sa théorie sur la Covid-19, inspirée des sources les plus variées, y compris les moins fiables. C’est d’ailleurs la raison pour laquelle il est nécessaire de pouvoir identifier, dans le bruit de fond, les publications rigoureuses. Et c’est pour cela que la communauté scientifique repose tellement sur le peer review (l’examen par les pairs) que, malheureusement, certains de ses membres s’emploient à pervertir, ce qui nous amène à promouvoir l’Open Peer Review.

Le cas de la vitamine D

Quoi qu’il en soit, dans cette fenêtre d’opportunité d’un accès libre immédiat et gratuit, une série d’observations sur le rôle protecteur de complications de la vitamine D publiées dans des journaux médicaux parmi les mieux considérés, présente la caractéristique très rare d’être totalement consensuelle: toutes les études vont dans le même sens et leurs conclusions sont toutes statistiquement significatives.

Ce n’est pas vraiment nouveau. Depuis plusieurs années, on a observé une corrélation entre la teneur sanguine en vitamine D et un certain degré de protection contre la sévérité des infections respiratoires aiguës. En consultant la littérature scientifique récente sur le sujet, grâce à cette initiative de la mettre totalement en Open Access, on constate qu’une telle corrélation a été abondamment documentée cette année pour le SARS-CoV-2. En voici une douzaine d’exemples, tous directement consultables d’un simple clic :

🔷 Avril 2020 – Evidence that Vitamin D Supplementation Could Reduce Risk of Influenza and COVID-19 Infections and DeathsNutrients

🔷 Juin 2020 – Vitamin D Levels and COVID-19 Susceptibility: Is there any Correlation?Med Drug Discov

🔷 Mai 2020- The role of vitamin D in the prevention of coronavirus disease 2019 infection and mortalityAging Clin Exp Res

🔷 Juillet 2020 – Potential role of hypovitaminosis D and vitamin D supplementation during COVID-19 pandemicQJM

🔷 Août 2020 – COVID-19: the older adult and the importance of vitamin D sufficiencyJ Nutritional Sci

🔷 Août 2020 – Vitamin D for COVID-19: a case to answer?The Lancet

🔷 Août 2020 – Reasons to avoid vitamin D deficiency during COVID-19 pandemicArch Endocrinol Metab

🔷 Août 2020 – Vitamin D status and outcomes for hospitalised older patients with COVID-19British Medical Journal

🔷 Septembre 2020- The link between vitamin D deficiency and Covid-19 in a large populationmedrXiv

🔷 Septembre 2020 – Association of Vitamin D Status and Other Clinical Characteristics With COVID-19 Test ResultsJAMA Network Open

🔷 Septembre 2020 – Vitamin D sufficiency, a serum 25-hydroxyvitamin D at least 30 ng/mL reduced risk for adverse clinical outcomes in patients with COVID-19 infectionPLOS One

🔷 Septembre 2020 – A Basic Review of the Preliminary Evidence That COVID-19 Risk and Severity Is Increased in Vitamin D DeficiencyFrontiers in Public Health

🔷 Octobre 2020 – Role of vitamin D in preventing of COVID-19 infection, progression and severityJ Infect & Public Health

Lorsqu’on connaît la variation de la teneur en vitamine D dans le sang en fonction de l’exposition aux rayons UV solaires, on ne peut s’empêcher de contempler les courbes d’infections d’un œil un peu différent.

▪️ Ce taux est l’objet d’une variation saisonnière liée à l’exposition solaire

Variations saisonnières du taux de vitamine D et relation avec l’ensoleillement. Le panneau inférieur indique le pourcentage d’échantillons de sérum dépassant 25 ng/ml (bleu). Les données, collectées aux USA, couvrent 287 semaines consécutives et concernent 3,44 millions d’échantillons de sérum (PLOS One)

▪️ le taux moyen diminue avec l’âge, sauf si l’on veille à une prise de suppléments alimentaires riches en vitamine D.

Voilà bien deux constatations qui doivent attirer notre attention, vu ce qu’on connaît aujourd’hui de l’épidémiologie de la Covid-19 (profil apparemment saisonnier et susceptibilité aux formes sévères augmentant avec l’âge). Une alimentation riche en poisson est également une excellente source de cette vitamine. Certains en tireront certainement toutes sortes de conclusions sur les différences de sévérité de la Covid-19 dans les différents pays… Personnellement, je ne m’avancerai pas plus sur ce terrain, pour éviter de me joindre à l’ultracrépidarianisme ambiant.

Je sais pertinemment que d’apparentes corrélations peuvent n’être que des coïncidences, mais ici, le consensus médical entre taux de vitamine D et sévérité de la maladie est très clair.

Désolé si j’enfonce une porte ouverte, mais il me semble qu’on a fort peu entendu jusqu’à présent recommander les compléments en vitamine D, surtout en automne-hiver, pour se prémunir, au moins partiellement, contre la Covid-19 et ses complications, au même titre qu’on promeut la distanciation, le port du masque et la désinfection des mains comme chacun sait.

Les yeux bandés…

Commençons par les chiffres et ma constante préoccupation concernant leur signification. Le récent abandon des tests sur les personnes potentiellement contaminées et asymptomatiques va avoir pour effet de diminuer considérablement le nombre de tests, donc attendez-vous à ce que le nombre absolu de nouveaux positifs décroisse. Il faudra être très attentif lors de l’interprétation de ce recul, qu’on pourrait logiquement à attribuer aux dernières mesures en vigueur… Cette suppression de tests va également entraîner un ciblage plus affûté des personnes testées: les symptomatiques, ce qui devrait faire fortement augmenter le taux de positivité comme en mars-avril lorsqu’on ne pouvait tester que les symptomatiques. Autant le savoir, avant d’en tirer des conclusions fausses dans quelques semaines.

Un refus incompréhensible. ➖ Le ministre Belge de la Santé refuse d’envisager les test «PCR salivaires», une technique de prélèvement qui est évoquée régulièrement dans divers pays. La raison en est que la technique serait différente de celle du test PCR naso-pharyngé et qu’il sera difficile d’assurer une continuité des statistiques, une affirmation qui a fait bondir les spécialistes. La première chose qu’on puisse en dire, car c’est élémentaire et tout le monde peut comprendre, est que ce sera plus difficile encore d’assurer cette continuité sans données du tout.

Un test vraiment différent ? ➖ Le test PCR salivaire (PCR-S) est identique au test PCR naso-pharyngié (PCR-NP), seul le prélèvement est différent: un dépôt de salive dans un tube au lieu d’un frottis rétro-nasal. Voici déjà une précision qui a toute son importance. C’est pourquoi il serait préférable, pour la dénomination de ces tests jumeaux, qu’on utilise une nomenclature simple comme celle que je suggère ici et qui les différencie tout en indiquant bien qu’il s’agit pratiquement de la même chose: PCR-S et PCR-NP. Si le « test antigénique » également appelé « test Antigène », qui n’a rien à voir avec la PCR (il recherche directement la présence du virus au moyen d’anticorps anti-viraux spécifiques du SARS-CoV-2), est beaucoup moins sensible que la PCR-NP, ce n’est pas le cas pour la PCR-S. Cette dernière est parfois (pas toujours) décrite comme légèrement moins sensible, toutefois ce n’est pas à cause de la technique d’amplification, puisque c’est exactement la même, mais parce que, lorsqu’on est contaminé, la salive contiendrait un peu moins de virus ou de composants viraux que le naso-pharynx, une observation qui ne fait pas l’unanimité. Même si c’est effectivement le cas, ce n’est pas nécessairement un inconvénient (la PCR-NP détecte du virus ancien et inactif) et cela pourrait y contraire rendre le diagnostic plus indicatif de la contagiosité potentielle du patient.

Une initiative trop wallonne ? ➖ Malgré les difficultés d’approvisionnement en réactifs indispensables, l’Université de Liège a développé une technologie de prélèvement originale, sécurisée et simple permettant l’auto-prélèvement rapide. Elle assure également tout le protocole qui s’ensuit et a généralisé cette approche pour le testing de ses étudiants et de son personnel. Les résultats sont très concluants et rapportent un taux de positivité compatible avec les observations générales.

Une expérience internationale qui s’accumule. ➖ La PCR salivaire fait son chemin dans le monde, en particulier aux USA, comme, par exemple, à l’Universite de Yale, où on vante tous les avantages de la technique, y compris le caractère informatif des résultats. Plusieurs états américains ont ainsi fait basculer leur politique de testing vers la PCR-S. Une publication du 22 septembre 2020 en libre accès dans le New England Journal of Medicine constate qu’il n’y a guère d’écart de sensibilité entre la PCR-S et la PCR-NP. On y lit : «saliva analysis is not dramatically less sensitive than NP swab analysis and might even yield somewhat less variable results». En français : «L’analyse de la salive n’est pas beaucoup moins sensible que l’analyse des écouvillons de NP et pourrait même donner des résultats un peu moins variables». Deuxième indication en faveur de la PCR-S. Intéressant ! En France, la PCR-S est validée par la Haute Autorité de Santé pour les symptomatiques et utilisée depuis le 18 septembre. Son efficacité a été confirmée par le CNRS le 5 octobre. En Suisse, une étude a démontré une meilleure détection du SRAS-CoV-2 dans les échantillons de salive que dans l’échantillon sur écouvillon nasopharyngé. « En outre, un pourcentage plus élevé d’échantillons de salive sont restés positifs au cours du temps en comparaison avec les échantillons sur écouvillon nasopharyngé. Ces résultats suggèrent que les échantillons de salive ont une sensibilité au moins similaire à celle des échantillons sur écouvillon nasopharyngé dans la détection du SRAS-CoV-2. L’analyse des variations de la concentration d’ARN au cours de l’évolution clinique a mis en évidence des fluctuations moins importantes dans la salive que dans les prélèvements nasopharyngés ».

Et même belge ! ➖ Le 17 août, dans le Brussels Times, les virologues belges H. Goossens, S. Van Gucht et M. Van Ranst recommandaient la PCR-S pour la détection de l’infection par le SARS-CoV-2 dans les écoles pour identifier les élèves super-contaminateurs. Dès le 19 août, l’adoption des PCR-S validées était recommandée par Sciensano afin de dépister les asymptomatiques à risque de contamination, concluant : «L’analyse de la salive pourrait être utilisée pour le dépistage de grands groupes de populations asymptomatiques, afin d’identifier les individus hautement infectieux». Sciensano confirmait le 12 octobre : «Le prélèvement de salive est susceptible d’avoir une valeur pour identifier les individus asymptomatiques ayant une charge virale moyenne à élevée dans le cadre de campagnes de dépistage systématique». L’utilisation de la PCR-S validée était, ce même 12 octobre, annoncée pour la fin de la semaine. Puis refusée par le ministre.

Des avantages incontestables. ➖ Certes, comme la PCR-NP universellement utilisée, la PCR-S est un « test PCR ». Cela suppose, un équipement coûteux, des réactifs difficilement disponibles, un savoir faire pointu et donc un personnel compétent. Passer d’un test à l’autre ne change rien à la charge de travail en aval du prélèvement. Les laboratoires ont besoin d’une aide conséquente et le remboursement du test serait un incitant pour les personnes à tester et pour les laboratoires agréés. C’est évidemment pourquoi l’approbation ministérielle est nécessaire. Parler de coûts excessifs dans la situation actuelle ne serait pas acceptable. Par contre, la PCR-S change beaucoup de choses au niveau du prélèvement : il s’agit non pas d’un auto-test, mais d’un auto-prélèvement, ce qui signifie que la personne à tester effectue un simple prélèvement de salive et, en refermant le tube, scelle l’échantillon de façon sécurisée et libère, dans le tube, un premier réactif qui stabilise l’échantillon. Celui-ci peut alors être déposé au laboratoire d’analyse. Plus besoin d’un personnel spécialisé avec équipement de protection prenant des risques et procédant à un prélèvement nasal délicat, parfois douloureux et toujours désagréable, ce qui augmente la compliance. Plus de files d’attente interminables pour se faire prélever et le personnel soignant ou technique peut être affecté à d’autres tâches.

Il existe aujourd’hui suffisamment d’indications de l’utilité de la PCR-S pour l’utiliser systématiquement et régulièrement dans les maisons de repos, dans les écoles et universités ainsi que pour les asymptomatiques susceptibles de contamination suite à un tracing ou revenant de voyage en ‘zone rouge’. Rejeter cette possibilité, c’est s’amputer d’un moyen de savoir, même s’il n’est pas infaillible (aucun test ne l’est, évidemment). Dire que c’est en rupture avec ce qu’on faisait jusqu’ici et que cela créera une discontinuité dans le suivi épidémiologique est vrai mais c’est une préoccupation négligeable par rapport à l’ampleur de la crise hospitalière actuelle. Et de surcroît, remplacer un test par un autre, plus facilement réalisable, vaut beaucoup mieux que de le remplacer par un bandeau qu’on se met sur les yeux.

On n’a vraiment pas tous les curseurs…

Il est tout-à-fait étonnant d’observer que lorsqu’on demande à pouvoir disposer de données réelles, d’une part, c’est toujours un combat et d’autre part, on se retrouve accusé de les vouloir pour défendre une thèse subversive… On peut aussi vouloir des données (publiques par nature, dans un système démocratique) parce qu’elles sont nécessaires pour un raisonnement qui n’est pas l’apanage d’un service public particulier, quelle que soit sa qualité.

La tradition virologique : deux piliers fondamentaux

Depuis de nombreuses décennies, lors de toutes les épidémies, les professionnels qui se penchent sur leur évolution et sur leur résolution tiennent à l’œil deux données primordiales : 1) le dépistage du virus et 2) la détection de la réponse immunitaire. Il existe une diversité de tests de laboratoire permettant de suivre ces paramètres. Actuellement, les plus utilisés sont, pour le dépistage du virus, le test « PCR » (polymerase chain reaction) qui détecte le génome viral (ARN), et pour l’immunité, le test « ELISA » qui détecte les anticorps circulants du sang, appelés immunoglobulines M et G (IgM et IgG).

Pour être complet, du côté du dépistage du virus, ajoutons les tests « Antigène » qui détectent le virus par son enveloppe externe et sont beaucoup moins sensibles que la PCR. Et, du côté de la réponse immunitaire, les tests sérologiques rapides parfois appelés autotests sérologiques (ceux pour lesquels on prélève une goutte de sang au bout du doigt) qui détectent les IgM et les IgG spécifiques du virus et peuvent même faire la distinction entre M et G.

Il faut aussi savoir que, contre les virus respiratoires, la première défense de notre organisme est assurée par une immunité appelée « immunité mucosale », qui consiste en une classe particulière d’anticorps, les immunoglobulines A (IgA), qu’on trouve dans les sécrétions des muqueuses comme les parois respiratoire ou buccale. Les IgA reconnaissant spécifiquement un virus sont plus difficiles à mettre en évidence et à mesurer, mais c’est réalisable. En fait, elles constituent le meilleur indicateur de protection (à la porte d’entrée). Les détecter et les doser serait d’une formidable utilité.

On doit aussi ajouter qu’il existe des méthodes complémentaires (assez lourdes, techniquement) qui permettent de mesurer la réponse immunitaire cellulaire (opérée par des globules blancs, pour faire simple, et non par des anticorps), la plus importante réponse aux infections virales, en réalité).

Le diagnostic virologique repose donc essentiellement sur deux piliers fondamentaux : la recherche du virus chez le patient et le statut immunitaire de ce patient.

Dans ce graphique (par L. Desrayaud dans Science et Vie, d’après un article du JAMA), on voit bien qu’après une exposition au virus, donc une contamination, on est contagieux pendant deux semaines environ (ce qui rend un peu étrange la quarantaine de 7 jours…). Pendant ce temps, notre organisme réagit et développe des anticorps spécifiques du virus qui ne seront détectables qu’environ apres la fin de la période contagieuse. Entre-temps, la PCR détecte le virus mais elle le fait aussi bien après qu’on ait cessé d’être contagieux. À ce moment, la séropositivité, même en présence d’une PCR positive indique que la personne n’est très probablement et en première approximation (je reste prudent) plus contagieuse.

Pourquoi le pilier immunologique manque-t’il dans les informations que l’on nous donne ?

Il est donc difficile de comprendre aujourd’hui pourquoi on semble baser toute la politique sanitaire, qui bouleverse toute la vie économique, culturelle, scolaire et psycho-sociale du pays, sur la détection du virus et pourquoi on omet, dans la plupart des cas, la mesure de l’immunité, alors que les tests pratiques existent, sont largement disponibles, de conception et fabrication belge et vendus largement à l’étranger où leur intérêt est reconnu.

Pourtant, les informations qu’ils donnent sont réellement utiles. En effet, pour la plupart des virus – à l’exception notable du VIH responsable du SIDA – la séropositivité vis-à-vis d’un virus est une indication du fait qu’on est immunisé, donc protégé contre ce virus et qu’en outre on ne le propage plus. Aujourd’hui, mi-octobre 2020, personne ne peut affirmer que ce soit le cas également pour le SARS-CoV-2, malheureusement. Si on en était certain, cela changerait considérablement la donne.

Actuellement, l’équation de base, et la seule, est:

PCR positif = en quarantaine

et son corollaire :

PCR négatif = pas encore – ou actuellement plus – contaminant.

Ce qui laisse planer un doute permanent car après un prélèvement qui donne un test PCR négatif, on peut être contaminé et devenir positif. On peut même l’être devenu entre le moment du prélèvement et la réception de l’information diagnostique !

Si le SARS-CoV-2 se comporte comme l’immense majorité des virus, l’équation peut être davantage modulée, sous forme d’une matrice simple :

Cette nouvelle information sur l’état immunitaire de la personne testée fait apparaître de nouvelles possibilités : d’une part celle d’être très probablement protégé car immunisé, d’autre part celle d’être très probablement protégé et probablement non contaminant. Ça ne manque vraiment pas d’intérêt dans une période où tout le monde se rend bien compte qu’on met trop en quarantaine.

On constatera ma prudence dans le «probablement» car en effet, nous n’avons pas d’indication scientifique absolument démontrée que l’immunité au SARS-CoV-2 est la même que pour les autres virus, dont ses plus proches cousins respiratoires. Pour éliminer ce doute, il manque encore une démonstration claire. En attendant, peut-on ou non prendre le risque d’une approximation et considérer que les séropositifs ne sont plus contaminants ?

C’est, je crois, dans cette incertitude que réside la frilosité des pouvoirs publics par rapport à l’utilisation de cette matrice simple, et donc la crainte de valider l’utilisation des tests sérologiques pour déterminer si une personne qui est PCR positive est réellement contaminante et doit être mise en quarantaine. Et pourtant, des approximations risquées, on en fait tout le temps, en postulant par exemple que quelqu’un qui est PCR-négatif selon un test réalisé sur un échantillon de la semaine précédente n’est pas contaminant et peut ne pas être mis en quarantaine. On le fait tous les jours. C’est une approximation. Ou en postulant que quelqu’un qui est PCR-positif est contaminant et doit être mis en quarantaine. On le fait tous les jours. C’est aussi une approximation. Et ces approximations sont lourdes de conséquences… outre leur impact sur les individus , elles déterminent, je le rappelle, les mesures qui ont un impact direct sur la vie de la société tout entière via les codes couleurs ou chiffrés : les fermetures, les couvre-feux, les interdictions diverses, etc.

On peut également attribuer cette frilosité au fait que les tests rapides sont, si on le souhaite, des autotests et que la méfiance des décideurs vis-à-vis de tels tests repose sur leur total manque de confiance en l’aptitude de M. et Mme Toutlemonde à réaliser correctement un test, voire leur suspicion de la falsification du résultat (quoique cela, ça demande, au contraire, de solides connaissances dans le domaine !). Évidemment, cet argument est aussi détestable que celui qui prévalait lors de la pénurie de masques au printemps dernier, prétendant qu’il valait mieux ne pas porter de masque, «les gens» allant nécessairement mal le porter et se croire invincibles ! Ce mépris de la population, souvent denoncé comme une infantilisation et qui a également conduit à la fermeture des restaurants à partir du 18 octobre 2020, est devenu vraiment insupportable.

Quoi qu’il en soit, l’information sur la séropositivité est essentielle, non seulement au niveau individuel pour ne pas mettre inutilement en quarantaine mais également au niveau épidémiologique. Dans le même esprit que celui qui me fait réclamer depuis des mois une étude scientifique sérieuse sur la prévalence du virus dans la population (échantillonnage significatif, randomisé et représentatif, on se lasse de le dire…), il devient impératif de connaître l’état immunitaire de la population avec une enquête équivalente.

Ça va coûter cher ? Si c’est ça la question, demandons-nous quand même s’il ne vaut pas mieux investir les deniers publics dans un système de soins performant et suffisant pour pallier toutes les crises sanitaires, permettant d’accueillir tous les malades et de leur prodiguer les meilleurs soins et avec un système de vigilance permettant de tester tout ce qui est mesurable sans faire de chichis dilatoires, sans méfiance mal placée, sans mépris du public, plutôt que de désigner des boucs émissaires que l’on va indemniser (chichement) , ce qui va quand même coûter une fortune inimaginable, en attendant qu’une solution inconnue survienne…


Note ajoutée le 18/10: On me signale une étude de la prévalence sérologique belge qui la situe aux environs de 3%, un taux très faible par rapport à une éventuelle immunité collective. Elle a cependant été réalisée entre le 30 mars et le 5 juillet et devrait être répétée régulièrement pour juger de l’évolution avec le temps, surtout avec la remontée des contaminations.

Réflexions d’un « marchand de déni »

Mon étiquetage récent ainsi que celui de plusieurs de mes collègues dans un édito à la RTBF comme responsables de l’augmentation des hospitalisations à Bruxelles et, dans une mesure un peu moindre, dans l’ensemble du pays (mais plus en Wallonie qu’en Flandre) m’a amené à réfléchir sur la perception changeante, en fonction des circonstances, d’un discours pourtant invariable. Je vais donc tenter de résumer et de remettre les points sur les i.

1. Du coronascepticisme. Comme virologue, j’ai intégré un certain nombre de choses: le virus existe, personne ne l’a fabriqué dans un but obscur et maléfique. C’est un coronavirus comme on en a connu beaucoup, toutefois pas vraiment comme les autres : le plus souvent bénin, il peut s’avérer extrêmement sévère chez certaines personnes aujourd’hui bien identifiées (malheureusement pas à 100%, ce qui conditionne toutes les difficultés que l’on connaît). Il peut en outre laisser des séquelles pénibles chez des symptomatiques que l’on croyait guéris. Certains m’accusent d’être ‘coronasceptique’ lorsque je tente de relativiser le danger. C’est faux. Je crois à l’existence du virus et à ses effets délétères, je garde simplement un sens des proportions qui me fait paraître insensible à la mort des gens. La mort n’est cependant pas le monopole soudain d’un virus qui dévaste l’humanité comme jamais aucun agent infectieux ne l’aurait fait. C’est le rôle du virologue de remettre les événements, chiffres et constatations en perspective et donc de relativiser.

2. De la simple petite grippe. J’ai été, à plusieurs reprises, accusé de comparer la COVID-19 à une simple grippe. C’est faux. Je ne l’ai jamais ni dit, ni même pensé. Les comparaisons avec les grippes saisonnières que j’ai parfois exposées visaient à mettre en évidence l’énorme différence de perception que le public, maintenu en haleine par la presse comme jamais dans l’Histoire, a pu se forger à propos d’une pandémie en réalité équivalente en nombre de morts aux pandémies de grippe de 1957-58 et 1968-69 (qui n’étaient pas des « petites grippes » !) et je me suis interrogé sur les raisons de ce changement radical d’attitude, avec les conséquences politiques sans précédent qui s’en sont suivies. Je me suis également interrogé quant au mécanisme mental qui distingue, dans l’esprit des gens, la sur-mortalité de 2020 avec celles, un peu plus faibles il est vrai, des épidémies de grippe saisonnière de 2017 ou de 2018. Ou même avec le passage quasi inaperçu de la sur-mortalité d’août 2020, due à la canicule. J’en ai conclu (mais je peux me tromper) que cette perception relative provient du caractère violent de la mort associée à la Covid-19 et de la nécessité pour ces patients de recevoir des soins hospitaliers.

3. Du confinement. Je suis convaincu que, vu notre pathétique niveau d’impréparation de l’époque (malgré les appels répétés à la vigilance par les virologues et les épidémiologistes), le confinement instauré en mars 2020 était devenu indispensable pour donner un coup de frein radical au débordement de la capacité des hôpitaux. D’aucuns pensent qu’on aurait pu éviter cela mais je n’en fais pas partie. J’ai toujours dit que le confinement général allait ralentir, voire arrêter la progression de l’infection. J’ai toutefois également insisté sur le fait que le confinement reste un phénomène artificiel qui ne peut résoudre le problème à long terme. J’ai aussi affirmé que l’épidémie n’est pas telle qu’un ouragan dont on peut s’abriter et puis sortir lorsqu’il est passé. J’ai aussi abondamment prétendu que le déconfinement serait beaucoup plus difficile à gérer et plus long que le confinement. Certains prétendent aujourd’hui que j’étais opposé au confinement général en mars. C’est faux. J’ai regretté qu’on doive en arriver là, pour diverses raisons, mais en mars, on ne pouvait plus rien faire d’autre.

4. De l’attente d’une solution. J’ai marqué mon désaccord complet avec l’idée de certains experts de maintenir des mesures contraignantes dures jusqu’à résolution complète de l’épidémie. L’impact colossal de telles mesures sur un grand nombre de professions ainsi que sur la scolarité des enfants, des adolescents et des jeunes adultes, est disproportionné par rapport au risque encouru par un peu moins de 0,2 % de la population (en date du 12 octobre 2020, 21.500 personnes ont été hospitalisées pour COVID-19 en Belgique depuis le mois de février). Je sais qu’en disant cela, je peux paraître cynique : «entraver 99,8 % de la population pour en protéger 0,2 %» : dit comme cela, dans toute sa froideur scientifique, ça soulève des tollés, même si c’est une vision objective des choses. L’émotion, c’est autre chose. On me reproche de vouloir sacrifier les personnes âgées (dont je fais partie !) et les personnes fragiles en faveur du confort et du bien-être de toutes les autres. C’est faux. La question ne peut pas être examinée de cette manière.

5. Du taux de positivité. Tout pilotage nécessite un tableau de bord dont les cadrants indiquent l’état de divers critères jugés importants. Celui qui a été choisi par les autorités belges et leurs conseillers scientifiques, mais également par de nombreux autres pays, est un nombre absolu de «cas», c’est-à-dire de personnes contaminées et détectées par la technique de PCR, par 100.000 habitants. C’est aussi une référence internationale, celle qui précipite si vite dans le rouge les différents pays et régions. Pourtant, n’importe qui peut comprendre que plus on effectue de tests, plus on a de chances de trouver des positifs. C’est ainsi que le Grand Duché de Luxembourg, qui a d’emblée testé tout le monde, est devenu la première zone rouge… Afin de se faire une idée plus correcte, et même si le nombre absolu est intéressant à connaître, j’ai réclamé de pouvoir disposer du nombre total de tests effectués, ce qui permet de calculer un taux de positivité. C’est tellement élémentaire que ce fut facile de mobiliser une demande publique pour cette information indispensable. Depuis que, par presse interposée, j’ai obtenu gain de cause (le 7 août) et que le taux de positivité fait partie de l’information quotidienne, certains pensent que je ne jure que par lui. C’est faux. Il est certes indispensable de le connaitre (et pas seulement le nombre de ‘cas’) mais cela n’en fait pas un indicateur majeur dont j’aurais l’obsession. La proportion d’asymptomatiques est telle que ce qui aide vraiment au pilotage, c’est a) le nombre d’hospitalisations, b) le nombre d’admissions aux soins intensifs et c) le nombre de décès, ainsi que les rapports relatifs de ces différentes valeurs. Aujourd’hui, (a) et (b) augmentent, (c) beaucoup moins. On peut en inférer des conclusions intéressantes et sans aucun doute augmenter la vigilance.

6. Des dégâts collatéraux. Quand je parle de «laisser courir le virus», beaucoup de gens comprennent «laisser chacun faire ce qu’il veut comme il veut». L’inquiétude que je ressens pour les professions que le confinement (ou le semi-confinement ou seulement la fermeture partielle) affecte sévèrement et pour la scolarité en général, a été réduite par certains à une sorte de combat irresponsable en faveur de la liberté totale du divertissement et des loisirs. C’est faux et c’est injuste. Je continue à penser que la reprise des activités de chacun est une priorité et je ne parle pas le moins du monde d’adopter des comportements délibérément propagateurs, quand je dis cela. Je parle des activités qui constituent la vie normale de la société et qui assurent un revenu à tout le monde. Je parle aussi des relations sociales indispensables à la grande majorité d’entre nous, qui n’est pas délibérément transgressive et qui peut élargir une bulle sans devenir un foyer de propagation. Un relâchement salutaire qui exigerait une hyper-protection des personnes à risque coûterait cher, me dit-on. Je prétends qu’il coûterait, quoi qu’il arrive, infiniment moins cher que le prix des dégâts collatéraux des mesures anti-Covid.

7. De la deuxième vague. Certains prétendent aujourd’hui que je suis dans le déni de la reprise des infections. C’est faux. Je n’ai jamais un seul instant ni dit ni même pensé qu’il n’y aurait certainement pas de deuxième vague. J’ai seulement dit en août que, contrairement à ce que certains affirmaient, on ne la voyait pas se dessiner et que, vu le caractère nouveau de ce virus et personne ne disposant d’une boule de cristal pour prédire l’avenir, toute affirmation sur ce qui allait se passer était une affaire de gestion de risque et non plus de gestion de crise et devait être traitée comme telle. J’ai affirmé depuis le début qu’un confinement (que je trouvais malheureusement bien nécessaire) allait aplatir la courbe mais allonger les délais et que, quand les hôpitaux seraient mieux équipés pour affronter l’infection et que des progrès thérapeutiques pourraient avoir été développés, il faudrait déconfiner et laisser courir le virus de manière prudente et contrôlée tout en prenant des mesures exceptionnelles de protection pour les personnes identifiées comme ‘à risque’. En d’autres termes, il s’agit «apprendre à vivre avec le virus» (une expression passée dans le langage courant, et même utilisée par la Première Ministre d’alors) comme on l’a fait de tout temps et avec toutes les épidémies. Cette stratégie, qui permet de ne pas paralyser trop longtemps les activités dont beaucoup de gens vivent, au point d’en sacrifier certaines définitivement, a un prix : la protection accrue des personnes à risque. De là à en faire un dilemme éthique, il n’y a qu’un pas que d’aucuns franchissent allègrement. Et pourtant, si elle avait été appliquée plus tôt, la montée du nombre de contaminations (improprement appelées «cas» et pas seulement qu’en Belgique !) aurait commencé plus tôt – dès qu’on eût été prêt, plutôt qu’à l’entrée de la saison favorable aux infections respiratoires – et un plus grand nombre de gens seraient actuellement immunisés.

8. Du vaccin. On m’a accusé d’anti-vaccinisme primaire lorsque j’ai, à plusieurs reprises, émis des doutes sur l’innocuité et/ou l’efficacité d’un vaccin anti-SARS-CoV-2. C’est faux. Je suis effectivement dubitatif mais cela n’a rien à voir avec une attitude anti-vaccinale en général. Je peine simplement à imaginer comment, dans un délai compatible avec une application réaliste – pendant le temps de la restriction sévère des activités de la société tout entière – on pourrait disposer d’un vaccin éprouvé, sans danger et protecteur. L’expérience du SIDA, un autre virus, très différent, certes, mais interférant également avec le système immunitaire, est qu’après quarante ans d’efforts incessants, on n’a toujours pas de vaccin. J’espère de tout cœur qu’il n’en sera pas de même avec le SARS-CoV-2 et que tout ira plus vite mais je me permets de trouver irresponsable toute politique basée sur un confinement conditionné par la disponibilité d’un vaccin. Cela pourrait prendre de nombreux mois, sinon des années, et je n’ose imaginer les dégâts… Je passe rapidement sur un autre doute qui me préoccupe: comme le virus ne tue pas directement les patients qui en sont atteints mais provoque chez certaines de ses victimes une réponse immunitaire anormale et mortelle, il est a priori possible que le vaccin le fasse également, ce qui le rendrait impropre pour la population la plus à risque. Et cette éventualité est très délicate à tester… Restons optimistes mais ne nous faisons pas trop d’illusions non plus.

9. D’une vision qui se veut objective et de bon sens. Chacune de mes mises en évidence des aberrations, des imprécisions, des contradictions ou des utopies dans les mesures sanitaires qui nous sont imposées depuis le mois de mars, a été transformée par certains en un effort de ma part pour décrédibiliser les autorités, sur base de je ne sais quel agenda caché. C’est archi-faux. Je n’ai ni agenda, ni projet personnel, ni ambition quelle qu’elle soit. Seulement une grande empathie, non seulement pour les victimes de la Covid-19 mais aussi pour les très nombreuses victimes collatérales des mesures déployées pour la combattre. Certains ont vu, dans mes demandes répétées pour plus de clarté dans le choix des données et dans leur interprétation à destination du public, une volonté de démontrer une thèse qui serait que le virus n’est pas dangereux ou qu’il a disparu. Encore une fois, c’est faux. Je ne voulais prouver aucun préjugé, je voulais au contraire qu’on ne manipule pas les chiffres pour faire adhérer le public à une psychose généralisée plus massivement délétère que le virus lui-même.

10. In medio veritas. Si on nous imposait, pour réduire la mortalité sur les routes, de rouler partout à 50 km/h, il se trouverait de nombreuses voix pour critiquer l’aspect disproportionné de la mesure. Les accuserait-on pour autant d’être dans le déni du taux de mortalité dû aux accidents ? d’encourager les excès de vitesse ? de promouvoir l’abandon de toute précaution au volant ? Les rendrait-on responsables des décès survenus à 180 km/h ? Ce serait faux. Nous attribuer la responsabilité des augmentations actuelles équivaut à nous reconnaître une influence que nous n’avons pas. Par ailleurs, je doute que nous exercions cette soi-disant influence dans les pays voisins qui connaissent la même résurgence…

Ce que j’affirme ici pour ce qui me concerne vaut également, je pense, pour mes collègues incriminés. Que cette incompréhension circule parmi les coutumiers du lynchage qui sévissent fréquemment sur les réseaux sociaux ne m’étonne pas le moins du monde. Qu’elle afflige certains médecins qui se sont trouvés sur le front de la première vague, craignant à juste titre d’y être à nouveau confrontés et qui n’ont pas le temps de lire attentivement nos propos, je peux très bien le concevoir. Mais qu’un raisonnement aussi simpliste et mal documenté émane de journalistes du service public qui jouissent, par ailleurs, d’une excellente réputation, c’est évidemment très décevant.