025370325

Quel futur pour l'avenir ?

Dossier : Quel futur pour l’avenir ?

Télécharger la version imprimable

L’électricité sans fil, la lévitation, l’ascenceur spatial, le pétrole artificiel, un système révolutionnaire de dépollution de l’eau, … tout cela sera-t-il possible un jour ?
«À  l’impossible, nul·le n’est tenu·e ! »
Embarquons dans notre machine à voyager dans le temps afin de découvrir et de comprendre les trouvailles d’hier qui permettront peut-être à d’incroyables inventions de voir le jour demain !

Un dossier rédigé par Nathalie Dodet, animatrice scientifique aux JSB
Première parution : Ébullisciences n°357, avril-mai 2015

L’électricité sans fil

Imaginez un jour supprimer tous les câbles et multiprises qui s’emberlificotent derrière vos meubles TV ou bureaux. Après le téléphone et l’internet sans fil est venue l’heure de l’électricité sans fil ! Ne croyez pas que cette idée quelque peu surprenante soit nouvelle : un prêtre irlandais y est déjà arrivé en 1836.

Cette technologie repose sur un principe assez simple : l’induction électromagnétique. Lorsqu’un courant alternatif, c’est-à-dire un courant changeant de sens en permanence, parcourt une bobine de fils conducteurs, il crée un champ magnétique. À l’inverse, lorsqu’un champ magnétique variable est appliqué à une bobine, un courant alternatif apparaît dans la bobine.

Sur ce principe, découvert il y a presque deux siècles, des chercheur·euse·s ont lancé le projet WiTricity pour wireless electricity (électricité sans fil). Elle·il·s ont réussi à alimenter une ampoule de 60 watts située à 2 m de la source. Pour ce faire, Elle·il·s ont utilisé une bobine émettrice reliée à une alimentation électrique et une bobine réceptrice reliée à l’ampoule. Le plus gros problème à surmonter est le rapide affaiblissement de l’intensité du champ magnétique autour de la source. Pour y pallier, Elle·il·s ont utilisé un autre phénomène physique, celui de la résonance qui permet d’amplifier le champ magnétique.

Malgré un rendement à améliorer, des applications ont déjà vu le jour. Imaginez pouvoir recharger votre smartphone sur l’accoudoir de votre fauteuil de cinéma. Encore plus fou, imaginez un bus électrique qui se recharge aux arrêts simplement par un système se trouvant dans la route. Ce n’est plus un rêve mais la réalité. Ces nouvelles technologies sont déjà à l’état de prototypes ou de tests.

Une autre technologie pour transmettre l’électricité sans fil se base sur les micro-ondes (les mêmes que dans le célèbre four). L’avantage de cette méthode est la distance élevée de propagation des micro-ondes. Ce système est à l’essai pour alimenter un petit village de la Réunion se situant au fond d’un canyon. Une démonstration a permis d’allumer une ampoule de 200 watts séparée de 40 m de la source mais le rendement est très mauvais.

C’est à partir de cette deuxième technologie qu’une révolution en terme d’énergies renouvelables pourrait arriver. Comme nous le faisons déjà avec les panneaux solaires sur le toit de nos maisons, il est possible de créer de l’électricité à partir du soleil. L’intensité lumineuse qui peut être captée est 8 fois plus grande en orbite autour de la terre que sur la terre car les rayons ne doivent pas traverser l’atmosphère. De plus, à cet endroit pas le même cycle jour/nuit, ni d’influence des saisons. D’où l’idée d’installer des centrales solaires spatiales (CSS).

 

Dans l’espace, le rendement des panneaux photovoltaïques est 7 à 8 fois supérieur qu’à la surface de la Terre. Mais il faut ensuite pouvoir ramener cette électricité au sol. La recherche planche sur les micro-ondes pour assurer ce transport sans trop de pertes. (©www.illustrer.fr)

 

 

 

Évidemment, un problème s’impose tout de suite : comment transférer l’électricité sur Terre ? Construire un câble de 36 000 km et le brancher sur Terre ? Pas facile, de trouver un matériau suffisamment résistant, qui n’engendre pas trop de perte… Par contre, l’électricité sans fil à l’aide de micro-ondes serait la solution idéale.
Les chercheur·euse·s planchent dessus, mais de nombreux problèmes sont encore à régler, comme le rendement, le coût du transport des matériaux dans l’espace (15 000 €/kg), l’orbite géostationnaire déjà encombrée, etc.


 

La supraconductivité et la lévitation

La supraconductivité, en gros, c’est la capacité d’un matériau à conduire l’électricité super bien, sans résistance. À l’inverse, la résistance électrique d’un matériau est sa capacité à ralentir le courant électrique, ce qui a pour effet d’échauffer le matériau. Mais la supraconductivité permet aussi de faire léviter des aimants. En effet, un aimant placé au-dessus d’un supraconducteur flotte. Seulement, ces phénomènes ne sont observés qu’à très basse température.
La découverte de cette chose incroyable ne date pas d’hier ! C’est déjà en 1911 que le physicien Kamerlingh Onnes  se rend compte que le mercure plongé dans de l’hélium liquide, (c’est-à-dire à une température de -269°C) ne montre plus aucune résistance.

Allons au plus profond de ces matériaux pour comprendre comment ils deviennent supraconducteurs.

Premièrement, la température en physique correspond au mouvement des atomes. Plus les atomes bougent, plus la matière est chaude. Quand les atomes ne bougent plus du tout, c’est que la température est de -273,15°C, c’est-à-dire le zéro absolu.

Deuxièmement, faisons un peu de physique quantique, les lois de la physique du tout petit. Un objet quantique (atome, molécule…) est toujours constitué d’un corps et d’une onde. Dans un matériau conducteur, les électrons circulent et rencontrent des obstacles qui sont responsables de la résistance du matériau. Dans les supraconducteurs, les électrons rencontrent très peu d’obstacles car le matériau est très froid et ses atomes n’ont presque plus de mouvement. De plus, les électrons s’assemblent et forment une seule onde qui se propage sans aucune résistance.
Et la lévitation ? En présence d’un aimant, les électrons en surface commencent à faire un mouvement circulaire qui induit un champ magnétique. Celui-ci s’oppose au champ magnétique de l’aimant et crée une force qui fait léviter l’aimant.

Tout ça c’est bien joli mais à quoi ça sert ? Voyons, à faire léviter les trains ! Les Japonais·ses ont construit un train capable d’atteindre une vitesse de presque 600 km/h. Vu que ce train lévite, il n’y a pas de frottements entre lui et les rails, la vitesse atteinte peut être plus élevée tout en consommant peu d’énergie. Pour le moment, il n’existe qu’une ligne expérimentale, de 40 km, mais il est question de construire une ligne commerciale entre Tokyo et Osaka, soit environ 500 km.
Le problème de ces trains est le coût des rails : en effet, dedans, se trouvent des supraconducteurs qui doivent être refroidis à une température proche du zéro absolu.

Les supraconducteurs pourraient aussi révolutionner le transport de l’énergie. Actuellement, les câbles électriques ne peuvent transporter que de faibles courants, sinon ils s’échauffent trop à cause de leur résistance et fondent. Les supraconducteurs, n’ayant aucune résistance, peuvent transporter des courants 10 000 fois plus puissants sans aucune perte. Même problème qu’avec les rails du train, cette technologie nécessite un système de refroidissement permanent et coûteux…

Le rêve des physicien·ne·s serait de créer des supraconducteurs qui fonctionnent à température ambiante (ou des systèmes de refroidissement peu coûteux) et avec ça, les possibilités seraient multiples… Des domaines aussi vastes que les transports, l’environnement ou l’informatique seraient révolutionnés : transport d’électricité sans perte, stockage d’électricité indéfini, train à grande vitesse non gourmand en énergie…

Et toi qu’est-ce que tu imaginerais ?

 

 

Faire léviter les trains grâce à la lévitation quantique, c’est possible. Un projet présenté à l’EXPOsciences 2014 mettait en lumière ce phénomène.

 

 

 

 


 

La fusion nucléaire

Rien de nouveau vous allez me dire, c’est ce qui se passe dans les centrales nucléaires ! Eh bien non, justement : il ne faut pas confondre fusion nucléaire et fission nucléaire.

Pour comprendre la différence, il faut aller voir au niveau du noyau des atomes. Il est composé de protons chargés positivement et de neutrons. Lors de la fission nucléaire, des atomes lourds tels que l’uranium 235 (235 car il possède 92 protons et 143 neutrons) se casse en deux, pour donner deux atomes plus légers et beaucoup d’énergie.
La fusion, c’est l’inverse : deux atomes légers, comme l’hydrogène, fusionnent pour n’en former qu’un avec un fort dégagement d’énergie. La fusion existe depuis la nuit des temps et se passe au-dessus de notre tête tous les jours. C’est grâce à elle qu’on peut se faire dorer la pilule. Et oui, c’est ce qui se passe dans le soleil.
Dès la découverte de la fusion nucléaire, au début du 20e siècle, les femmes et les hommes ont eu l’idée de l’utiliser comme source d’énergie. C’est une excellente idée puisque le combustible nécessaire à la fusion, l’hydrogène, est présent en grande quantité sur le globe. En effet, c’est, avec l’oxygène, le composant de l’eau, hydrogène comme le H de H2O.

Qu’est-ce qu’on attend ?

Si c’est si bien que ça, pourquoi n’utilise-t-on pas déjà la fusion comme source d’énergie ? Du calme, du calme, ce n’est pas si simple que ça. Revenons-en à nos noyaux ! Lors de la fusion, il faut approcher deux noyaux chargés positivement qui naturellement se repoussent. Du coup, il faut énormément d’énergie pour lancer le processus de fusion.
Pour ce faire, dans le soleil, il règne une pression gigantesque et une température de plusieurs millions de degrés.
Dans un réacteur à fusion, il faut réussir à reproduire ces conditions. Des réacteurs à fusion ont déjà vu le jour mais leur problème est le rendement. Il faut arriver à produire plus d’énergie que celle injectée dans le système et que le système une fois lancé s’autoalimente. Chose encore jamais réussie.

Un projet en chantier

C’est ce but que poursuit le projet ITER, qui verra le jour en 2020, peut-être. Il tente de faire fusionner deux isotopes lourds de l’hydrogène, c’est-à-dire des atomes possédant le même nombre de protons que l’hydrogène mais plus de neutrons : le deutérium constitué d’un neutron et d’un proton, présent dans l’eau de mer et le tritium composé de deux neutrons et d’un proton, plus rare et instable.
Les technologies utilisées pour concrétiser ce projet sont à la pointe, ils utilisent par exemple les supraconducteurs (hé t’as vu ? ils sont partout).

Énormément d’argent est injecté dans ce projet car il pourrait révolutionner la production d’énergie. Aujourd’hui, pour produire de l’énergie, on utilise soit des combustibles fossiles qui dégagent de grandes quantités de CO2 en partie responsable des changements climatiques, soit des matières nucléaires qui produisent d’énormes quantités de déchets qui restent dangereux pour l’environnement et la santé humaine durant des millions d’années.

La fusion, quant à elle, ne dégage ni de CO2 ni de déchets radioactifs dangereux à longue durée de vie.
Voilà pourquoi elle est si géniale, mais deviendra-t-elle l’énergie de demain ? On se donne rendez-vous dans 5 ans pour constater.

 

 

La fusion d’un atome de deutérium et d’une atome de tritium forme un atome d’hélium. Le neutron expulsé est transformé en énergie.

 

 


 

Les nanotechnologies

Vous en portez, vous en mangez, vous en conduisez… Ah quelle est cette chose qui nous envahit ? Pas de panique, c’est ce qu’on appelle les nanoparticules. Mais qu’entend-t-on par ce terme ? Ce sont des particules très petites dont une des trois dimensions ne dépasse pas 100 nanomètres.

Un nanomètre par rapport à un mètre, c’est un milliard de fois plus petit. Pour t’aider visuellement, le rapport de taille entre le nanomètre et le mètre est le même qu’entre une orange et la Terre.
L’avantage des nanoparticules est d’avoir une grande surface de contact en comparaison de leur volume, ce qui leur confère d’autres propriétés. Pour s’en rendre compte, un petit cube de 2 cm de côté fait de nanoparticules de 100 nm de côté a une surface recouvrant 5 terrains de foot ! Ce n’est pas rien.

Aujourd’hui, les usages sont déjà multiples : nanoparticules d’argent (effet antibactérien) dans les chaussettes, pour qu’elles ne puent pas même quand elles sont sales ; nanoparticules de silice, pour fluidifier les vinaigrettes et autres ketchup ; nanoparticules de silice à la surface des pneus pour les rendre plus résistants… Aujourd’hui, ce sont les nanotubes de carbone qui font beaucoup parler d’eux.

Mais ce n’est pas une découverte récente : la première observation semble avoir été faite en 1952. Malheureusement, la publication en faisant rapport était rédigée en russe et n’a pas fait le buzz. Il faudra attendre 1991 pour que le monde entier s’y intéresse.

Un nanotube de carbone (cfr illu ci-dessus), c’est une feuille constituée d’une couche d’atomes de carbone enroulée sur elle-même. Cette structure possède d’incroyables propriétés : elle est beaucoup plus résistante que l’acier et plus légère. Elle est souple, elle peut conduire l’électricité, elle est supraconductrice (décidément, ça nous poursuit) à basse température, elle supporte de forts courants électriques…

Des applications ont déjà vu le jour

Les fabricant·e·s de téléviseurs ont imaginé des écrans fait de nanotubes, ce qui leur conféreraient une plus grande résistance, une meilleure luminosité et consommeraient moins d’énergie.  Des chercheur·euse·s ont imaginé des circuits électroniques qui s’auto-réparent grâce aux nanotubes. Ceux-ci sont contenus dans des microcapsules, qui recouvrent les contacts des batteries. Lorsqu’une brèche apparaît dans le circuit, les microcapsules se cassent lors du choc et les nanotubes viennent combler la brèche et rétablissent le passage du courant électrique.

Les nanotubes ont relancé un vieux projet spatial un peu fou : l’ascenseur spatial. Ce projet permettrait de se rendre dans l’espace à moindre coût, ou plus souvent, de ramener les déchets, d’envoyer du matériel fragile et lourd…
Avant, ce projet n’était pas réalisable entre autre car aucun matériau n’était suffisamment robuste et léger pour réaliser un câble de plus de 36 000 km de long. Aujourd’hui, avec les nanotubes de carbone tout devient possible en théorie. Une entreprise japonaise espère réaliser l’ascenseur spatial d’ici 2050.


Fabriquer du pétrole en quelques jours

Avant tout, à quoi sert le pétrole ? Évidemment à faire des carburants, diesel, essence, kérosène… mais pas seulement ! C’est aussi à partir du pétrole qu’on fait des textiles, le plastique, des détergents, certains engrais… Énormément de choses proviennent de cette ressource, seulement elle n’est pas inépuisable.

Pour le comprendre, il faut faire un bond de plusieurs millions d’années dans le passé. C’est à cette époque (de 230 à 20 millions d’années) que le pétrole s’est formé. Dans la mer, des débris de végétaux et d’animaux se sont accumulés sur le fond. Avant qu’ils ne se dégradent, une couche de sédiments est venue les recouvrir. Au fur et à mesure des millions d’années, la matière organique et les sédiments se sont enfoncés. Ils ont subi des pressions et des températures extrêmement élevées, qui ont transformé la matière organique en pétrole.
Aujourd’hui, le pétrole est abondamment consommé mais ne se forme plus, d’où l’intérêt de le fabriquer artificiellement…

L’utilisation de composés végétaux pour fabriquer des carburants n’est pas une nouvelle idée. Au début de l’automobile, les moteurs, comme le célèbre moteur diesel, ont été construits pour fonctionner à partir de matières végétales (huile d’arachide, alcool…) et non à partir du pétrole. Ensuite, les industriel·le·s se désintéressent des carburants obtenus à partir de matière végétale car les produits pétroliers deviennent abondants et bon marché.
Puis, dans les années 70, deux chocs pétroliers ont eu pour effet l’augmentation du prix des carburants. Du coup, il y a eu un regain d’intérêt pour les agrocarburants à cette époque.

Les premières recherches de substituts au pétrole se sont tournées vers des carburants faits à partir de plantes alimentaires telles que le maïs, le blé… Problème avec ces agrocarburants, dit de première génération : ils sont très peu rentables, ils utilisent de grandes surfaces agricoles qui ne peuvent être utilisées pour produire des denrées alimentaires, ils utilisent de grandes quantités d’eau et de pesticides.
Ensuite, les agrocarburants de deuxième génération se sont développés, n’utilisant plus des plantes à destination alimentaire, mais des déchets verts tels que la paille, les tailles de bois…
À l’heure actuelle, ce sont les balbutiements des agrocarburants de troisième génération. Ils sont faits à partir de micro-algues marines.

Une entreprise a déjà réalisé une unité de production test dans le sud de l’Espagne. Les micro-algues sont placées dans des grands tuyaux transparents pour profiter un maximum du soleil. Du CO2 émis par une usine adjacente y est injecté. À partir du soleil et du CO2, les algues pratiquent la photosynthèse pour se nourrir et faire des réserves. Après 24h, les algues sont séparées de l’eau puis subissent de fortes températures et de fortes pressions pour être transformées en pétrole. Ces agrocarburants de troisième génération ont plusieurs avantages : ils ne rentrent pas en compétition avec l’alimentation humaine, ils requièrent très peu d’eau, ils recyclent des émissions de CO2, ils sont plus purs que le pétrole naturel.
Petit bémol, pour un bon rendement, il faut un maximum d’ensoleillement, un problème pour implanter cette technologie dans notre chère Belgique… mais qui sait un jour on roulera peut-être à l’algue, on portera peut-être de l’algue, nos courses seront peut-être emballées dans de l’algue !

 

Le pétrole s’est formé il y a plusieurs millions d’années, à partir de débris végétaux et animaux. Les réserves sont limitées et s’épuisent. Arriver à fabriquer un substitut au pétrole à partir de matière organique, sans empiéter sur l’agriculture de subsistance alimentaire, est donc un vrai défi.

 

 


La bio-impression

Décortiquons le mot bio-impression pour savoir ce qui se cache en-dessous. Bio comme biologie, la science du vivant, et impression comme imprimer c’est-à-dire reproduire quelque chose. Donc la bio-impression c’est reproduire des choses vivantes. En effet, la bio-impression permet d’assembler des cellules entre elles pour fabriquer des tissus et peut-être un jour des organes entiers, mais on en est pas encore là.

Les biologistes à travers le monde se sont inspiré·e·s de la célèbre imprimante 3D qui assemble des couches de résine pour fabriquer des objets. Elles et ils utilisent le même principe mais elles et ils ont remplacé la résine par des cellules vivantes.
L’imprimante est chargée avec une bio-encre faite de cellules vivantes et d’un milieu nutritif pour celles-ci. Les cellules utilisées sont des cellules pluripotentes provenant de la graisse ou de la moelle osseuse. Une cellule pluripotente est une cellule qui a encore la capacité de se transformer en différents types de cellules, cellule musculaire, cellule de peau… Un système de seringue ou de laser (il existe différentes technologies) vient déposer des microgouttelettes d’encre avec une précision de quelques micromètres suivant le schéma déterminé. Ensuite, les cellules grandissent, se différencient et interagissent entre elles pour former un tissu fonctionnel.
À l’heure actuelle, plusieurs types de tissus ont déjà vu le jour comme du muscle, de la peau, de l’os…

Les avantages de la bio-impression sont multiples. Pour former des tissus ou organes ayant pour but la transplantation, les cellules de la·du patient·e sont utilisées, ce qui élimine tous les problèmes de compatibilité avec la donneuse ou le donneur et les rejets. La·le patient·e transplanté·e ne devra plus prendre des médicaments permettant d’accepter la greffe.
Autre avantage, le problème des listes d’attente pour recevoir une greffe pourrait être résolu. Aujourd’hui, le nombre d’organes disponibles n’est pas suffisant face à la demande. Ceci entraîne plusieurs choses, l’utilisation d’organe de « moins bonne qualité » (par exemple provenant de sujets âgés) et la dégradation de l’état du·de la receveur·euse pendant l’attente et donc moins de chances de réussite.
La bio-impression permet aussi de fabriquer des petits échantillons de tissus en 3D ayant pour but la recherche médicale, comme l’élaboration de nouveaux médicaments. Les tests sur les animaux pourraient ainsi être diminués.

Un cœur bio-imprimé, ce sera peut-être pour demain ! Mais il reste encore quelques étapes à franchir. Aujourd’hui, les chercheur·euse·s ne peuvent imprimer que des tissus fins. Leur barrière est la nécessité de fabriquer des vaisseaux sanguins pour des tissus ou organes de plus grandes tailles. De plus, lors de la fabrication d’un organe, il faut assurer l’approvisionnement en oxygène jusqu’à la transplantation, ce qui est encore problématique. Une équipe américaine pense pouvoir transplanter le premier cœur bio-imprimé dans 10 ans.

Le rejet d’une greffe est dû à des molécules présentes à la surface de nos cellules. Ces molécules sont appelées «complexe majeur d’histocompatibilité» (CMH). Il existe de nombreuses variantes aux molécules du CMH. Chaque individu possède une combinaison unique de ces molécules (sauf chez les vrais jumeaux et les vraies jumelles) ce qui en fait notre carte d’identité moléculaire.
La présence du CMH sur nos cellules permet à notre système immunitaire de reconnaître le soi des corps étrangers. Lorsqu’un corps étranger rentre dans notre corps (par exemple une bactérie), notre système immunitaire ne reconnaît pas les molécules à la surface et décide de l’attaquer.
Il se passe exactement la même chose lors d’une greffe. Les molécules du CMH du donneur étant différentes de celles du receveur, notre système immunitaire peut identifier la greffe comme un corps étranger et essayer de l’éliminer. C’est pourquoi, lors d’une greffe, on compare les CMH du donneur et du·de la receveur·euse pour qu’ils soient compatibles au maximum.


Le vaccin contre le VIH

Le VIH est le virus responsable du SIDA. Les virus sont de toutes petites entités très simples. Elles sont constituées d’une ou deux enveloppes et de matériel génétique, c’est tout ! Leur seul but : se multiplier. Problème, les virus n’ont pas la machinerie nécessaire pour se multiplier. Du coup, ils pénètrent à l’intérieur d’une cellule cible de l’organisme, intègre leur matériel génétique dans le noyau pour que ce soit la cellule qui multiplie les virus. Elle devient ainsi une usine à virus et ne fait plus que ça jusqu’à en mourir. Chaque virus infecte des cellules bien particulières. Par exemple, le virus de la grippe infecte les cellules des voies respiratoires.

Le VIH est un virus particulier pour plusieurs raisons. Tout d’abord, son matériel génétique est sous forme d’ARN (molécule voisine de l’ADN). Dès lors, avant de pouvoir être lu dans la cellule hôte, il doit être transformé en ADN. Cette étape supplémentaire provoque un taux plus important de mutations, le virus change très rapidement. Deuxièmement, les cellules cibles du VIH sont les cellules du système immunitaire. Ce sont justement ces cellules qui participent à la défense contre les infections.

Ce mode de fonctionnement rend difficile l’élaboration d’un vaccin. Les premières tentatives utilisaient les protéines se trouvant à la surface du virus pour activer le système immunitaire. Comme dit plus haut, le virus a tendance à rapidement muter et plus particulièrement ces protéines de surface. Du coup, une fois vacciné, le système immunitaire d’une personne est capable de reconnaître une protéine de surface. Si la protéine de surface en question change et que le virus se présente, le système immunitaire sera incapable de reconnaître le virus. La personne développera la maladie.

Aujourd’hui, un nouveau type de vaccin est en phase de test. Ce vaccin serait thérapeutique, c’est-à-dire qu’il n’empêcherait pas de contracter le virus mais il permettrait aux personnes séropositives (ayant contracté le virus) de ne pas développer la maladie.
Il n’a plus comme cible une protéine de surface mais la protéine Tat : une protéine sécrétée par les cellules infectées par le VIH. Cette protéine agit comme une toxine pour les cellules du système immunitaire qui sont censées attaquer et détruire ces cellules infectées par le virus. L’avantage de cette protéine est sa présence et sa conservation supposée dans les différentes souches de VIH à travers le monde.

Les chercheurs se sont penchés sur cette protéine après avoir observé des personnes capables de se défendre contre le VIH. Ces personnes avaient fabriqué des anticorps anti-Tat. Naturellement, très peu de gens montrent une immunité contre la protéine Tat. Il semblerait que des parties de la protéine seraient semblables à certaines protéines humaines. Vu qu’elle est semblable aux protéines du soi, le système immunitaire ne reconnaîtrait pas cette protéine comme étrangère et ne fabriquerait pas d’anticorps.

Le défi des chercheurs est d’induire chez les malades une réponse immunitaire qui neutraliserait Tat et donc la réponse toxique des cellules infectées et permettrait ainsi leur élimination. Ils ont utilisé une protéine Tat mutée présente dans une souche de VIH au Gabon. Là-bas, beaucoup de personnes sont capables de se défendre contre le VIH. Apparemment, grâce à la protéine Tat mutée contre laquelle leur système immunitaire a réagi.

Aujourd’hui, le vaccin thérapeutique avec comme principe actif la protéine Tat mutée est en phase II de test, c’est-à-dire que des premiers tests sur patients séropositifs ont été concluants et les tests sont alors faits sur un plus grand échantillon de personnes.
C’est le seul vaccin qui a déjà été aussi loin dans les tests. S’il voit le jour, ce vaccin permettra aux personnes séropositives de stopper leur lourd traitement qu’ils doivent prendre à vie. De plus, le traitement actuel est fort cher et beaucoup de personnes n’y ont pas accès.

Ce vaccin permettrait aux 40 millions de personnes séropositives à travers le monde de ne pas développer le SIDA.


Télécharger la version imprimable

Dossier réalisé par Nathalie Dodet et paru en avril 2015, dans Ebullisciences, nr 357.

E.R. : Guy Severs, JSB asbl, avenue Latérale 17/1 , 1180 Bruxelles