Conseil Scientifique

Est-ce Facebook qui manipule la politique ou c’est la politique qui manipule Facebook ?

Temps de lecture : 13 minutes

Conseil Scientifique – Commission Numérique

 

Facebook est né en 2004, dans les rangs de l’université de Harvard, développé initialement par trois étudiants, plutôt introverties et presque asociaux, ces trois étudiants ont pu créer le réseau social de la planète. Au départ, il s‘agissait de relier les étudiants de l’université Harvard, très vite, le site s’est élargi à d’autres universités américaines et canadiennes, avant d’être le réseau qu’on connaît aujourd’hui.

15 ans après, les chiffres sont vertigineux[1] :

  • Facebook est le 3ème site internet le plus visité au monde (après Google et sa filiale YouTube)
  • Facebook relie 3 milliards de personnes, soit une personne sur 3 a un compte sur ce réseau social (3 milliards de comptes mensuels actifs et 2 milliards de comptes journaliers actifs). 50% des utilisateurs se connectent au moins une fois par jour.
  • Nous passons en moyenne 34 minutes par jour sur ce réseau, soit près de 2 ans dans une vie moyenne de 80 ans !
  • Messenger est la 2ème messagerie la plus utilisée au monde, juste derrière sa demi-sœur WhatsApp[2]. Les deux totalisent 2,3 milliards de comptes (dans le monde il y a 8 milliards de lignes téléphoniques mobile)
  • Les utilisateurs de Facebook regardent 100 millions d’heures de contenu vidéo sur Facebook par jour (85% des utilisateurs regardent les vidéos sans le son)
  • 160 millions d’entreprises sont présentes sur Facebook dont 80 millions de PME (dont 194 000 entreprises algériennes recensées [3])
  • Le CA de Facebook de 2020 était de 85 milliards de dollars us, soit 4 fois les recettes des hydrocarbures en Algérie pour la même année.

 

Cette révolution numérique n’échappe pas à la politique. Facebook est devenu un des médias les plus puissants et a permis de donner la parole et de la visibilité à des millions de gens. La place publique se déplace volontairement ou involontairement sur ce réseau social. Aucune organisation, aucun parti, aucun mouvement, ne peut se permettre ne pas avoir un compte Facebook.

Facebook nous offre une fenêtre sur le monde, une tribune planétaire avec la proximité d’un village. Et tout ça gratuitement ? Pas tout à fait, puisque Facebook fait des bénéfices, beaucoup de bénéfices. La firme américaine avec ses 63 000 salariés a été valorisée à 1000 milliards de dollars us en bourse en 2020, l’équivalent de deux fois les PIB de l’ensemble des pays du Maghreb !

Pourtant les utilisateurs ordinaires ne payent rien, sauf une connexion internet et quelques dollars de boost de temps en temps. Mais si le produit est gratuit, cela veut dire que c’est nous « le produit », ou plus exactement nos données sont le produit. A l’instar des autres géants du numériques, le modèle économique est basé sur la donnée. Comment faire en sorte de collecter les noms, prénoms, âges, villes, orientations politiques, tendances culturelles, préférences culinaires, convictions religieuses, …. Etc. Tout, absolument tout est bon à prendre. Facebook est prêt à tout pour avoir sa part du gâteau, y compris influencer le débat public et manipuler les états dans le monde. Alors comment procède-t-il ?

Facebook manipule la politique

Comment Facebook peut manipuler le citoyen et plus particulièrement le politique ?

Son objectif unique est de collecter les données, pour ensuite les valoriser et en tirer des bénéfices. Cela passe par la collecte directe de données à partir des profils des personnes, et aussi par la création des données générées par les interactions (très encouragées) de ces mêmes personnes.  Toute l’informatique de Facebook a été conçue pour répondre aux deux points précédents.

Concrètement, Facebook utilise plusieurs algorithmes, plutôt opaques, pour la construction du fil d’actualités, la suggestion d’amis, la gestion des publicités, …. Etc. Les algorithmes de Facebook sont des algorithmes de type « Machine Learning », ou d’apprentissage. En gros, ils apprennent avec des données et continuent à s’améliorer avec des nouvelles données. Plus il y a des données, plus les performances augmentent.

Par exemple, dans des algorithmes Machine Learning de reconnaissance vocale, le système apprend la reconnaissance des mots et leur enchaînement à partir d’un corpus de données. Ainsi, le mot qui doit suivre le mot « bonjour » est probablement « Madame » ou « Monsieur » plutôt que « Voiture ». Plus on alimente le corpus, plus les performances de reconnaissance augmentent. Et c’est le même principe pour tous les algorithmes prédictifs de Facebook.

Les données sont essentielles pour les performances du système mais aussi pour le modèle économique de Facebook.

Intrinsèquement et structurellement, ces algorithmes sont conçus pour manipuler les utilisateurs de Facebook, notamment les politiques. Les paragraphes suivants feront le focus sur les articles, publications, post,  … à caractère liés de manière ou d’une autre à la politique et au débat public.

1. La bulle Facebook

A la création de Facebook, tous les « posts » des utilisateurs étaient affichés et publiés. Mais depuis 2010, Facebook utilise le « News Feed Ranking Algorithm », comprenez l’ordonnancement du fil actualités. Cet algorithme filtre et n’affiche que 10% en moyenne des publications réellement postées. Il se base plus au moins sur la formule (très simplifiée) suivante[4] :

Si un utilisateur U1 a plusieurs posts P1, P2,

Pour afficher les post de U1 dans un fil d’actualité d’un autre utilisateur U2,

On calcule le Score(P1) = Affinité x Type x Fraîcheur

Affinité étant la fidélité et les interactions de U1 par rapport à U2. S’il y a eu plus d’interactions entre les deux utilisateurs alors ce paramètre sera plus important.

Type étant le type de la publication : photo, vidéo, texte, changement de statut, partage …

Fraîcheur étant l’inverse de la durée du post. Plus un post est récent, plus ce paramètre est grand.

Quand une publication a plusieurs interactions (like, commentaires, changements de statut,  …), la formule devient la somme de tous ces évènements, soit :

Score(P1) = ∑  Affinité x Type x Fraîcheur

Les détails techniques sont bien évidemment jalousement gardés par Facebook.

A partir de cette simple formule, on comprend que Facebook favorise les publications les plus récentes, qui ont été échangées et commentées par le plus d’amis, ces derniers sont sélectionnés et suggérés par un autre algorithme de Facebook.

De plus, le paramètre Type défavorise les publications type liens externes, dans le but de ne pas sortir de Facebook, voir même censurer et bloquer des liens vers des sites de partage de fichiers ou vers des performances artistiques et politiques comme seppukoo.com, qui permet aux internautes… d’effacer leurs données de Facebook[5].

Cet algorithme nous propose une bulle dans laquelle les actualités sont filtrées, les amis sont suggérés et les discussions ne sortent pas de Facebook. Tout en nous faisant croire que l’actualité nous vient du monde entier !

2. Les amis de mes amis, … de mes amis

Dans Facebook, on peut créer son propre réseau d’amis mais aussi on peut se faire suggérer des amis.

La section « Vous connaissez peut-être » (ou « People you may know » en anglais) vous propose continuellement des nouveaux amis. On peut penser que Facebook suggère les amis de mes amis, voir les amis de mes amis de mes amis, … etc. ça serait trop simple !

L’algorithme est trop obscur, et semble-t-il créer un « profil fantôme »[6] de chaque utilisateur pour ensuite aspirer toutes les données possibles. Par exemple : on vous propose un ami qui vous n’avez jamais vu depuis 10 ans mais qui vient de vous envoyer un email, ou un collègue lointain retrouvé dans une invitation de travail Outlook, ou des personnes qui sont vos amis sur d’autres réseaux. Et combien même vous vous protégez ou vous refusez de partager vos données, cet algorithme se nourrit des données que possède les autres utilisateurs sur vous !

Les spéculations vont même affirmer que le « profil fantôme » n’est jamais supprimé même si un jour vous décidez de supprimer votre profil réel. Il sera réactivé au même moment où l’utilisateur réactive ses données, ou si votre profil fantôme possède des données sur d’autres utilisateurs. Ainsi, la sélection d’amis se fait selon des grandes affinités entre personnes. Au fil du temps, on se construit un public ou une agora presque acquise à sa propre cause.

Chaque utilisateur de Facebook a en moyenne 300 amis, cela correspond t-il à la réalité ? C’est comme-ci vous débattiez sur une chaîne TV ou radio, et vous sélectionniez votre audience. Facebook vous donne l’impression que votre avis est le plus majoritaire car approuvé, validé dans votre « cercle d’amis ». Pourtant la réalité est beaucoup plus nuancée que cela.

Les publications sur Facebook les plus échangées et qui font le buzz véhiculent essentiellement des informations fausses ou sans grand intérêt

3. La mal-information

La mal information est plus grave que la désinformation. En effet, la désinformation est un processus piloté volontairement par une entité dans le but de diffuser des fausses informations. On peut identifier le donneur d’ordre et son objectif.

Quant à la mal information, c’est un processus structurel qui habite un système, sans réels commanditaires ni objectifs clairs. Juste une conséquence d’une série de décisions mal réfléchies. Les publications sur Facebook les plus échangées et qui font le buzz véhiculent essentiellement des informations fausses ou sans grand intérêt pour l’humanité. Ainsi, l’algorithme « News Feed Ranking Algorithm »  privilégie les Types qui ont le taux d’engagement le plus important[7] :

  • Vidéo 6.09%
  • Photo 4.42%
  • Lien 2.72%
  • Statut 1.44%

De ce fait :

  • Un texte à lire est moins important qu’une vidéo. Pourtant toutes les études montrent que lire stimule notre activité cognitive. De plus, Facebook limite la visibilité à 50 caractères.
  • Une longue vidéo à regarder est moins importante qu’une courte de vidéo de 1 à 3 minutes. Pourtant, on peut imaginer qu’un long documentaire peut contenir les éléments essentiels au débat, qui ne peuvent pas être racontés en 3 minutes.
  • Les vidéos qui sont regardées de façon répétitive sont privilégiées, semaines après semaines.

La mal-information ressemble étrangement à la « malbouffe », on avale tout, on est sédentaires et on a du mal à sortir de ce rythme infernal !

En réalité, on est à l’heure de l’information courte, de l’instantanéité, loin des analyses ou du débat d’idées.

4. La manipulation des émotions

Sur un autre registre, Facebook en partenariat avec les universités Cornell et de Californie à San Francisco a réalisé en 2012 une expérimentation sur 700 000 utilisateurs (bien sûr sans les avertir). Elle avait pour objectif de mesurer leur degré de « contagion émotionnelle » dans les groupes[8]. Si un utilisateur partage des émotions positives ou négatives (post, like, commentaires aimable ou haineux, …), y aura-t-il un impact sur le reste du groupe ?

« Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes », écrivent les auteurs de cette étude. Selon eux, « ces résultats montrent la réalité d’une contagion émotionnelle de masse via les réseaux sociaux »[9]

Certes les utilisateurs n’étaient pas forcément des politiques, mais ça démontre deux éléments essentiels. D’abord, jusqu’où ce réseau est prêt à aller pour mieux nous connaître et nous cibler. Ensuite, la contagion émotionnelle de masse est bien réelle, notamment pour les émotions négatives telles que la haine, l’idolâtrie ou le harcèlement. Certainement l’effet de groupe conjugué avec « l’effet bulle » Facebook.

Facebook s’est justifié par le fait que ces 700 000 utilisateurs (et des milliards d’autres) avaient accepté les conditions générales d’utilisation, à travers un ou deux clics lors de la création de compte !

La manipulation des données Facebook peut se faire soit directement par la firme ou par l’intermédiaire d’autres entreprises. En politique, deux sociétés ont particulièrement brillé ces dernières années : la britannique Cambridge Analytica et l’israélienne Archimedes.

La politique manipule Facebook

L’étendue du pouvoir de Facebook est extraordinaire, et cela n’a pas échappé à la politique, qui est finalement un des marchés les plus juteux. Le monde politique veut sa part du gâteau. Il veut utiliser Facebook comme média de diffusion, et comme un outil puissant de micro ciblage. Le tout avec une précision chirurgicale. A titre d’exemple, quand une entreprise veut lancer un nouveau produit, les sondages marketing nécessitent au moins entre 1000 et 2000 personnes fiables pour avoir un taux d’erreur statistiquement acceptable (entre 1 et 3 points). Sur le réseau social, le Parti Démocrate américain a déjà 1,6 millions abonnés. En France, le Rassemblement National compte près de 500 000 , et La République en Marche 230 000.

Avec une telle audience, on s’approche des audiences de la télévision. Statistiquement, si les abonnés Facebook sont « fiables », les marges d’erreurs d’un sondage seront très faibles. Le ciblage est très fin par sexe, âge, ville, date d’anniversaire, langue, localisation …. Ces abonnés constituent une masse de données qui permet de sonder efficacement les internautes sur les tendances, produits ou image de marque. La politique n’est pas en reste.

La manipulation des données Facebook peut se faire soit directement par la firme ou par l’intermédiaire d’autres entreprises. En politique, deux sociétés ont particulièrement brillé ces dernières années : la britannique Cambridge Analytica et l’israélienne Archimedes.

1. Cambridge Analytica

Cambridge Analytica est une petite société britannique, fondée en 2013 et spécialisée dans l’analyse de données à grande échelle à des fins politiques. Son slogan est très explicite de ce qu’elle propose : « Data drives all we do » (« Les données déterminent tout ce que nous faisons »).  Cambridge Analytica appartient à l’homme d’affaires américain très républicain Robert Mercer.

Comme toute société de big data, elle procède en trois étapes : collecte des données, analyse et exploitation.

On est loin, très loin des débats d’idées !

La première étape a été atteinte via une application mobile avec un questionnaire psychologique d’apparence anodine. Comme elle était un partenaire agréé par Facebook, elle a pu proposer ce questionnaire aux utilisateurs du réseau social. On ne connaît pas précisément la nature de ce partenariat entre les deux entreprises. Facebook était-il au courant de la démarche et les objectifs de Cambridge Analytica ?

Ainsi les données ont été récupérées via l’application de tests psychologiques « This is your digital life« . Le questionnaire a été mis en place par Alexandr Kogan, enseignant en psychologie à l’université de Cambridge et également employé par l’université russe de Saint-Pétersbourg[10]. Cette application a récupéré les données Facebook de toute personne répondant au questionnaire, mais surtout les données de leurs amis. Il y a eu 270 000 personnes qui ont répondu au questionnaire mais l’application a récupéré les données de 87 millions d’utilisateurs ! Une fois la phase de collecte terminée, Cambridge Analytica a ensuite procédé à l’analyse de ces données et au profilage très fins des utilisateurs.

Les données ont été exploitées tout d’abord pour les élections présidentielles du Kenya de 2013, un premier test grandeur nature. Ensuite une deuxième intervention pendant les élections présidentielles de 2017.

L’équipe de campagne du président élu Uhuru Kenyata a exploité, entre autres, les besoins remontés par les résultats des analyses Cambridge Analytica et qui étaient l’emploi et les violences tribales pour cibler une propagande cousue de mensonges et d’exagérations.

Le deuxième grand « use case » de la société Cambridge Analytica était les élections présidentielles au Nigéria de 2015. L’équipe de campagne du président de l’époque Goodluck Jonathan a payé 2 millions de dollars pour s’offrir les services de cette société. En exploitant les données et les peurs, l’équipe a diffusé des vidéos visant à diaboliser Muhammadu Buhari affirmant qu’il cherche à imposer la Charia Islamique.

Après (au moins) les deux essais africains, Cambridge Analytica s’attaque au marché américain. Cette fois-ci, les données ont été utilisées par l’équipe de campagne de Donald Trump pendant les élections présidentielles de 2016, moyennant la modique somme de 6 millions de dollars. L’objectif était de réaliser un ultra profilage des électeurs américains. Ainsi des électeurs conservateurs ont été ciblés car identifiés comme fans d’une marque de Jean Levis’s ou Wrangler , des électeurs démocrates ont été ciblés car fans de la marque Kenzo[11], ou encore des spots ont été envoyés aux femmes actives préoccupées par la garde d’enfants. Encore plus grave, la « pizzagate », où une rumeur folle a circulé un mois avant les élections sur la découverte d’un réseau de trafic d’enfants dans les sous-sols d’un restaurant branché dirigé par des proches d’Hillary Clinton. On est loin, très loin des débats d’idées !

2. Archimedes

Archimedes est une obscure société israélienne, créé en 2017 et spécialisée dans le Conseil et Lobbying. Elle a été fondée par Elinadav Heymann, qui possède un CV intriguant : ex-directeur du groupe de lobby « Amis d’Israël » à Bruxelles, conseiller auprès du Parlement Israélien, conseiller politique sur des questions étrangères au Parlement Européen, conseiller pour l’agence israélienne TARA qui conseille des gouvernements étrangers et pour finir… ex agent du renseignement de l’Armée de l’air israélienne[12].

L’affaire Archimedes éclate peu après l’affaire Cambridge Analytica, dans un contexte où la firme américaine a été mise sous pression par les autorités américaines et européennes. Facebook a annoncé avoir découvert des attaques méthodiques et répétées pour influencer les élections dans plusieurs pays dans le monde. Les pays qui semblent concernés sont : Nigeria, Sénégal, Togo, Angola, Niger, Tunisie et Venezuela.

Archimedes a été bannie par Facebook en 2019. Facebook a déclaré que l’entreprise était impliquée dans une « attitude inauthentique coordonnée visant des utilisateurs dans des pays d’Afrique subsaharienne, d’Amérique latine et d’Asie du sud-est dans un effort visant à influencer les discours politiques dans ces régions »[13].

Autant Cambridge Analytica manipulait les données pour un ciblage ultra profilé, autant Archimedes a été plus loin en semant la zizanie et déstabilisation de pays de façon coordonnée, structurée et ciblée.

Pour arriver à ses fins, cette entreprise à débourser près de 1 million de dollars de publicités.

Facebook affirme avoir supprimé 65 comptes Facebook, 161 pages, 23 groupes, 12 événements et 4 comptes Instagram, les pages Facebook incriminées ayant été suivies au total par quelque 2,8 millions de comptes[14]. Les chiffres avancés par Facebook sont importants mais ne semblent pas révéler toute la vérité, ce n’est pas avec 65 comptes qu’on manipule les élections dans plusieurs pays.

L’un des pays proches de nous et qui était particulièrement visé est la Tunisie. Nous n’avons pas d’informations précises sur qui a commandé ces attaques et dans quel objectif, si ce n’est pour déstabiliser la jeune démocratie. Comble de la manipulation et désinformation orchestrée par Archimedes, Facebook a affirmé avoir supprimé la page concernant la Tunisie, et qui s’intitule « Stop à la désinformation et aux mensonges en Tunisie ».

Une autre page a été supprimée par Facebook « Tunisie Mon Amour » qui présentait un certain nombre d’informations complètement incohérentes au pays, et qui montrait des images du Maroc et de la Turquie, présentées comme étant des images de la Tunisie. Le site https://inkyfada.com et le rapport DFRlab (Inauthentic Israeli Facebook Assets Target the World) listent les principales pages africaines et tunisiennes qui ont été supprimées par Facebook, et qui durant des mois ont mené une campagne de désinformation massive.

Autant Cambridge Analytica manipulait les données pour un ciblage ultra profilé, autant Archimedes a été plus loin en semant la zizanie et déstabilisation de pays de façon coordonnée, structurée et ciblée.

Réguler, responsabiliser, libérer

Des lanceurs d’alerte tels que Christopher Wylie (ancien directeur de recherche chez Cambridge Analytica), Frances Haugen (ancienne informaticienne chez Facebook), et d’autres ont fait éclater au grand jour des pratiques douteuses de traitement des données Facebook. Et ce n’est pas l’auto-régulation tellement défendue par Facebook qui a permis de faire sortir les scandales des dernières années. Mais combien y a-t-il d’autres Cambridge Analytica ou d’autres Archimedes qui n’ont pas été révélés ? Et même pour les deux sociétés citées précédemment, avons-nous découvert tout l’étendu du massacre ? pas sûr !

Bien évidemment, il ne s’agit pas de censurer mais d’apporter plus d’équité et de transparence dans le débat public.

Suite à cela, Facebook a réagi, notamment suite à la pression des autorités mais aussi (et surtout) suite aux pertes financières estimées à 100 milliards de dollars en 2018. Le réseau social a même mis en place des « War Rooms » présentées en grandes pompes aux médias, censées détecter et réagir face à des attaques et manipulations.

En octobre 2021, la maison mère de Facebook a changé de nom, « Meta », qui signifie « au-delà » en grec. Est-ce pour faire oublier ces scandales qui ont secoué le réseau social depuis plusieurs années ?

Il y a une dizaine d’années, Facebook était reconnu comme LE réseau social qui a permis à des révolutions de s’organiser, à des luttes politiques de se structurer et d’attirer plus de monde pour des causes justes. Le monde a découvert le rôle de Facebook dans la construction et la destruction des Etats. Facebook n’est pas un simple outil informatique mais un phénomène social, un média puissant, une agora quasi planétaire. Il est urgent d’introduire une dose de régulation. Il va de la crédibilité du rôle citoyen que peut avoir un tel réseau social.

Il n’est pas normal que des lois existent pour contrôler le financement des partis politiques, encadrer les campagnes électorales, s’assurer de l’équité de présence dans les médias, … etc. Ces lois couvrent tous les espaces médiatiques sauf sur les réseaux sociaux, notamment Facebook.

La régulation devrait porter sur :

  • La protection des données personnelles,
  • La transparence des algorithmes de Facebook,
  • Et l’identification des parties prenantes (qui finance, combien et pour quelle cause)

Bien évidemment, il ne s’agit pas de censurer mais d’apporter plus d’équité et de transparence dans le débat public.

Mais ne rejetons pas toute la faute sur les algorithmes, Facebook est aussi à l’image de ce que nous devenons : nous préférons les commentaires inutiles à l’analyse profonde, nous favorisons les réponses courtes à des positions plus nuancées, nous aimons être vus et nous aimons voir les gens, nous nous auto proclamons juges et spécialistes dans tous les domaines, nous lançons des discours haineux tout en restant anonymes, …. etc.

Il faut que Facebook redevienne le réseau social de rapprochement, l’agora responsable, un moyen de lutte citoyenne contre les régimes totalitaires, … bref, un outil pour le bien-être de l’humain et de l’humanité.

Conseil Scientifique – Commission Numérique

 

Références :
[1] https://blog.digimind.com/fr/agences/facebook-chiffres-essentiels
[2] WhatsApp a été rachetée par Facebook en 2004 pour un montant de 19 milliards de dollars
[3][3] https://www.aps.dz/economie/125936-plus-de-194-000-entreprises-dotees-du-nis-en-2020
[4] L’algorithme Edge Rank – Rachid Guerraoui – https://www.youtube.com/watch?v=1ParbwnSJpM
[5] Facebook, miroir magique – Philippe Rivière  – Le Monde Diplomatique – Décembre 2020
[6] How Facebook knows who all your friends are, even better than you do – Caitlin Dewey – The Washington Post – Avril 2015
[7] https://www.grizzlead.com/comprendre-lalgorithme-facebook-pour-optimiser-sa-page/
[8] Facebook Manipulated 689,003 Users’ Emotions For Science – Kashmir Hill – Forbes – Juin 2014
[9] https://www.europe1.fr/technologies/Facebook-a-manipule-les-emotions-de-700-000-utilisateurs-899220
[10] Scandale Facebook: Le psychologue Alexandr Kogan, au cœur de l’affaire, est «sincèrement désolé» – 20 Minutes – Avril 2018
[11] Comment Cambridge Analytica a repéré les électeurs de Trump grâce à leurs vêtements – Alexandre Rousset – Les Echos – Novembre 2018
[12] https://www.huffpost.com/author/elinadav-heymann
[13] https://about.fb.com/news/2019/05/removing-coordinated-inauthentic-behavior-from-israel/
[14] https://www.europe1.fr/technologies/facebook-supprime-265-faux-comptes-pilotes-selon-lui-depuis-israel-3899096
Nassim BENDALI

Recent Posts

Le dilemme de la modernité et de la tradition : Quel choix pour l’Algérie ?

  CONTRIBUTION : Par Soufiane Djilali, Président de Jil Jadid parue sur le média en…

6 jours ago

Communiqué du Conseil Politique – Avril 2024

Communiqué du Conseil Politique                                                Alger le 27 Avril 2024   Dans pratiquement quatre mois,…

3 semaines ago

Présidentielles anticipées : entretien avec Soufiane Djilali

  Dans cet entretien (pour le média en ligne TSA, ndlr), Soufiane Djilali, président de…

1 mois ago

13 ans de Jil Jadid : Célébration et Réflexion à travers un Recueil Historique sur la Logique de Hirak

  À l'occasion du 13e anniversaire de la fondation de Jil Jadid, le 11 mars…

2 mois ago

Soufiane Djilali : «Le basculement vers un monde multipolaire rebat toutes les cartes»

  Le président du parti Jil Jadid, Soufiane Djilali, revient, dans cet entretien, sur la…

2 mois ago

Présidentielle de 2024 : Soufiane Djilali plaide pour un « candidat du rassemblement »

  La présidentielle algérienne de décembre 2024 approche à grands pas. Soufiane Djilali, président de Jil…

2 mois ago