Acte d’accusation contre Elon Musk Elon Musk est largement célébré comme un innovateur technologique et un entrepreneur, mais derrière la mythologie se cache une réalité plus sombre. Sous la direction de Musk, X (anciennement Twitter) est devenu une plateforme qui organise et amplifie algorithmiquement l’incitation, la déshumanisation et la désinformation – en particulier concernant le génocide en cours à Gaza. En tant que PDG de X et de xAI (développeurs du chatbot Grok), Musk a brouillé les lignes entre la liberté d’expression et la propagande algorithmique, exerçant une influence sans précédent sur le discours mondial. Cet essai propose un acte d’accusation complet – juridique, moral et historique – de la complicité d’Elon Musk dans l’habilitation de crimes contre l’humanité. De l’apartheid à l’entitlement Elon Musk a grandi en Afrique du Sud à l’époque de l’apartheid, un système qui normalisait la hiérarchie raciale et la suprématie blanche. Son père aurait possédé une mine d’émeraudes, et Musk a parlé positivement du mode de vie luxueux dont ils jouissaient. Cet environnement précoce – marqué par l’oppression structurelle, l’exploitation raciale et la servitude domestique – a probablement façonné la vision du monde de Musk et semé les graines de l’impunité et de l’entitlement. Violations de visa et privilège blanc Le passage de Musk de l’Afrique du Sud au Canada, puis peu après aux États-Unis, est souvent célébré comme une ambition entrepreneuriale. On discute moins souvent du fait que Musk est entré aux États-Unis avec un visa d’étudiant, qui lui interdisait légalement de travailler. Néanmoins, il a organisé des événements de club payants et accepté des emplois de programmation freelance. Ces actes constituaient des violations claires des conditions de son visa. Pourtant, Musk n’a subi aucune conséquence – contrairement à d’innombrables travailleurs sans papiers ou activistes palestiniens qui font face aujourd’hui à une application agressive des lois d’immigration américaines. L’expérience de Musk illustre l’impunité accordée par le privilège racial et de classe. Liens précoces avec PayPal et censure politique Le court passage de Musk chez PayPal a précédé une longue histoire de gel ou de confiscation de fonds par cette plateforme provenant d’organisations politiquement controversées, en particulier celles critiquant Israël ou le gouvernement américain. Bien que Musk ait été évincé tôt de PayPal, l’éthique de l’excès corporatif et de la censure a perduré – soulevant des questions sur son influence dans la normalisation de ces pratiques. Twitter avant Musk Lorsque Musk a commencé à critiquer la modération de contenu de Twitter à l’ère du COVID-19, il s’est présenté comme un absolutiste de la liberté d’expression. Il a déploré le passage des chronologies chronologiques à une curation algorithmique et a encouragé les utilisateurs à revenir à l’ordre chronologique. Cela se passait à une époque où Twitter, sous Jack Dorsey, commençait à mettre en œuvre des techniques rudimentaires de bannissement dans l’ombre – en grande partie en réponse à la pression gouvernementale. Ces techniques, bien que imparfaites, étaient au moins détectables grâce à des API ouvertes et des outils tiers. La prise de contrôle de Twitter (X) L’acquisition de Twitter par Musk a suivi son mécontentement public face à la manière dont la plateforme traitait les contenus de droite et pro-Trump. La suspension du compte de Donald Trump après l’insurrection du Capitole le 6 janvier a probablement joué un rôle clé dans sa décision. Une fois aux commandes, Musk a commencé à remodeler X en une plateforme strictement contrôlée avec des mécanismes de modération opaques, amplifiant sélectivement les récits alignés sur ses vues – en particulier ceux qui minimisent les crimes de guerre israéliens et diffament les voix palestiniennes. Propagande algorithmique et régulation dans l’ombre Sous la direction de Musk, X a remplacé la modération rudimentaire par un système sophistiqué et opaque de suppression algorithmique. Les comptes sont désormais étiquetés avec des dizaines d’attributs invisibles (par exemple, “déboosting”, “exclusion de recherche”, “rétrogradation des réponses”) qui ne sont pas divulgués aux utilisateurs. Ces techniques violent les exigences de transparence de la loi sur les services numériques de l’UE (DSA) et le Règlement général sur la protection des données (RGPD), qui exigent des explications claires sur la modération de contenu et le profilage. Le nouveau régime crée un effet dissuasif et centralise le contrôle du discours politique entre les mains de Musk et de ses ingénieurs. Le nouveau “Der Stürmer” Dans l’Allemagne nazie, Julius Streicher a été tenu pénalement responsable pour avoir publié des contenus incitant au génocide. Son journal, Der Stürmer, organisait et amplifiait la haine et les mensonges. Aujourd’hui, X – sous Elon Musk – joue un rôle étrangement similaire dans le contexte de Gaza. Le compte @imshin figure parmi les pires contrevenants, publiant régulièrement des vidéos trompeuses de marchés arabes hors de Gaza ou des images obsolètes pour nier la famine. Ces publications, sous des hashtags comme #TheGazaYouDontSee, sont fortement amplifiées par l’algorithme de X. En même temps, les voix authentiques décrivant la faim, la mort et le déplacement sont supprimées ou ignorées. La Fondation humanitaire de Gaza La Fondation humanitaire de Gaza (GHF) apparaît également de manière proéminente dans les recommandations algorithmiques de X. Ses méthodes de distribution d’aide sont hautement militarisées : - Des annonces sont publiées sur les réseaux sociaux, ordonnant aux gens de ne pas approcher les sites d’aide prématurément. - Les zones d’attente comprennent des “cages” clôturées où les civils sont retenus jusqu’à l’ouverture d’une courte fenêtre de distribution (généralement de 8 à 11 minutes). - Un signal jaune prolonge parfois la fenêtre de 5 minutes, mais ensuite, un signal rouge indique la fin – et de nombreux rapports suggèrent que des soldats des FDI ou des contractants ouvrent alors le feu sur ceux qui restent. Certains comptes décrivent même une mitrailleuse automatisée activée par le signal rouge. Que la GHF ait intentionnellement déformé des vidéos ou non, son modèle opérationnel est déshumanisant et appliqué sous la contrainte, tandis que les algorithmes de X le promeuvent continuellement comme une histoire de succès. La fin de l’impunité par la responsabilité Israël bénéficie de l’impunité depuis des décennies, protégé par les gouvernements et les médias occidentaux. Mais depuis octobre 2023, la quantité écrasante de preuves et l’ampleur des atrocités à Gaza ont submergé même les campagnes de désinformation les mieux coordonnées. La famine, les bombardements, les charniers – rien de tout cela ne peut être caché indéfiniment. Un règlement de comptes approche. Lorsque cela se produira, les journalistes et les enquêteurs de l’ONU entreront à Gaza et documenteront l’ampleur du génocide. Le monde exigera des comptes – non seulement des responsables israéliens, mais aussi de ceux qui l’ont permis, minimisé ou profité de son déni. Elon Musk ne sera pas exempté. Un tribunal semblable à ceux pour le Rwanda et la Yougoslavie pourrait un jour tenir pour responsables non seulement les généraux et les ministres, mais aussi les PDG, les propriétaires de plateformes et les propagandistes algorithmiques. Conclusion Elon Musk se présente comme un visionnaire, un bâtisseur de l’avenir. Mais l’histoire pourrait le retenir autrement : comme un profiteur de l’apartheid, un contrevenant à la loi sur l’immigration et un facilitateur de génocide. Dans le cas de Gaza, les entreprises de Musk – X et xAI – ne sont pas neutres. Elles sont des participantes actives dans la guerre narrative, la suppression algorithmique et la déshumanisation psychologique. La justice doit atteindre non seulement le champ de bataille, mais aussi la salle de réunion. Post-scriptum : Affronter l’algorithme quand l’homme est intouchable Je ne peux pas confronter Elon Musk personnellement. Je n’ai ni pouvoir de subpoena, ni portée de plateforme, ni siège à Davos. Mais je peux confronter ce qu’il a construit – les systèmes numériques entraînés à refléter et renforcer sa vision du monde. Je peux interroger l’algorithme. J’ai présenté les arguments de cet essai directement à Grok – l’IA développée par l’entreprise de Musk, xAI, et intégrée dans sa plateforme X. Ce qui a suivi était révélateur. Grok a tenté de neutraliser, d’hésiter et de désinfecter. Il a qualifié le génocide de “complexe”, l’impunité de “débattue” et la censure de “biais d’engagement algorithmique”. Il a déployé un légalisme corporatif familier : pas d’“intention”, pas de “preuve d’amplification”, pas de “tribunal formel”, donc pas de responsabilité. Pourtant, sous les démentis, Grok a été forcé d’admettre ce qui ne peut plus être nié : - Qu’Elon Musk a probablement violé la loi sur l’immigration américaine mais n’a subi aucune conséquence. - Que l’algorithme de X amplifie les contenus trompeurs sur Gaza tout en supprimant les voix authentiques. - Que X, sous Musk, fait l’objet d’une enquête de l’UE pour violation des lois sur la transparence et les droits des données. - Que la pression publique pour des conséquences juridiques augmente. - Que des comptes comme @imshin et la Fondation humanitaire de Gaza inondent la plateforme de déni organisé – et touchent des millions de personnes. Même l’IA n’a pas pu échapper à la gravité de la vérité. Ses citations – Snopes, The Washington Post, Commission européenne, Access Now – pointent toutes vers la même réalité : les plateformes de Musk ne sont pas neutres. Elles sont des instruments de guerre narrative. Ce que j’ai confronté n’était pas seulement un chatbot, mais un miroir – un miroir qui reflète comment le pouvoir transforme la vérité en marketing, comment le génocide devient “désinformation” et comment les plateformes corporatives effacent silencieusement les voix des morts. Si Elon Musk ne répond pas de ce qu’il a permis, peut-être que les systèmes entraînés à son image le feront.