Début  2019, une poignée de militaires tentaient un coup d’État au Gabon. La situation intérieure gabonaise était conflictuelle depuis la présidentielle de 2016 et s'était aggravée avec l'AVC d'Ali Bongo, qui avait décidé d'effectuer sa convalescence au Maroc. Début décembre 2018, la lettre du continent dévoilait par ailleurs l'arrestation de Stephan Privat, ancien sous-officier français qui était entré au Gabon accompagné d'une dizaine d'hommes dont des anciens de la DGSE. Non informé de la raison de la présence de ce groupe à Libreville, le Directeur du renseignement de la présidence, Frédéric Bongo, avait retenu Privat durant 48 heures pour l'interroger, les autres membres du groupe ayant pour leur part quitté le Gabon. Enfin, le 31 décembre, Ali Bongo présentait ses vœux aux gabonais, dans une vidéo tournée au Maroc: certains acteurs ont alors suspecté que cette vidéo était un deepfake, et plusieurs analyses avancent depuis lors que le coup d’État tenté le 7 janvier 2019 par le lieutenant Kelly Ondo Obiang était la conséquence de cette suspicion de deepfake.

Ainsi, la présentation d'une video du Washington Post affirme "quand une adresse vidéo de Bongo est apparue fin décembre 2018, certains pensaient que c'était un deepfake. Une semaine plus tard, des soldats ont tenté un coup d'État".

Le Financial Times cite un spécialiste de Deeptrace, une startup spécialisée dans la problématique des deepfakes : " “It just looked odd: the eyes didn’t move properly, the head didn’t move in a natural way — the immediate kind of response was that this is a deepfake,” says Ajder. A week after the video was released, junior officers attempted a coup d’état, which was quickly crushed".

MIT Technology Review cite l'avis d'Internet sans frontières : "As uncovered by the digital rights organization Internet Without Borders, many people, thinking Bongo looked off in the footage, immediately suspected it was a deepfake—a piece of media forged or altered with the help of AI. The belief fueled their suspicions that the government was hiding something. One week later, the military launched an unsuccessful coup, citing the video as part of the motivation".

Idem pour SiecleDigital, qui fait référence  au rapport de Deeptrace, et affirme : "Loin de calmer la rumeur, la vidéo va au contraire relancer les spéculations, des opposants politiques dénonçant un deepfake. L’affaire est loin d’être anecdotique: quelques jours plus tard, la vidéo supposément fake sera utilisée pour justifier une tentative de coup d’État (avorté)".

Dans une newsletter de mars 2019, Henry Ajder (par ailleur auteur du rapport de Deeptrace sur les deepfakes) affirme: "An official government video of the Gabonese President Ali Bongo was branded a deepfake by his political opposition, resulting in rumours that he had died, and an attempted military coup".

L'ensemble de ces analyses permet de remonter à trois sources :

Un article initial d'Ali Breland, pour MotherJones : The Bizarre and Terrifying Case of the “Deepfake” Video that Helped Bring an African Nation to the Brink, qui décrit comment l'opposition gabonaise a considéré la vidéo d'Ali Bongo comme un deepfake, et affirme: "One week after the video’s release, Gabon’s military attempted an ultimately unsuccessful coup—the country’s first since 1964—citing the video’s oddness as proof something was amiss with the president". Ali Breland mentionne que c'est Julie Owono, d'Internet sans frontières, qui a signalé la suspicion de deepfake à MotherJones. Ali Breland cite aussi un expert de Deeptrace, qui aurait estimé que la vidéo n'était sans doute pas un deepfake, mais sans pouvoir en être certain.

Seconde source: Deeptrace, qui a publié un rapport sur les deepfakes en septembre 2019 : The State of Deepfakes, Landscape, Threats, and Impacts, qui affirme: "However, Bongo’s unusual appearance in the video led many on social media, including Gabonese politician Bruno Moubamba, to declare that the video was a deepfake, confirming their suspicion that the government was covering up Bongo’s ill health or death. A week after the video’s release amid growing unrest, members of Gabon’s military launched an attempted coup against the government. In a video announcing the coup, the military mentioned the video’s odd appearance as proof that something was wrong with the President" en citant pour source l'article d'Ali Breland.

Troisième source, à l'origine des autres : Internet sans frontières, qui, après avoir publié un communiqué présentant la vidéo comme un élément déclencheur de la tentative de coup d’État, affirmait dans une tribune publiée par Jeune Afrique : " nous avons signalé le cas de cette vidéo au magazine Mother Jones, une publication spécialisée dans les nouvelles technologies et leur impact sur les sociétés. Ils ont ainsi réalisé un article sur le risque que représentent les deepfakes dans des pays où les institutions sont assez fragiles et peu armées pour répondre à ces nouvelles menaces numériques.... c’est après la diffusion de cette allocution litigieuse qu’a eu lieu à Libreville, le 7 janvier 2019, la première tentative de coup d’État au Gabon depuis 1964. Pour justifier leur acte, les militaires impliqués ont notamment affirmé n’avoir pas été convaincus par la vidéo présidentielle du nouvel an".

Au-delà de ces conjectures, une écoute attentive de la vidéo de l'intervention de Kelly Ondo Obiang lors de la tentative de putsch montre que non seulement les putschistes n'ont jamais considéré la vidéo d'Ali Bongo comme un deepfake, mais en plus ils l'ont analysée correctement, comme la vidéo authentique d'un homme malade, et c'est cela qui a précisément justifié la tentative de putsch. La vidéo révèle clairement les séquelles du Président : un problème ophtalmique, une difficulté d'élocution, et une paralysie du membre supérieur droit. Pour les putschistes, c'est donc l'état de santé dégradé d'Ali bongo mis en évidence par la vidéo qui les aurait poussé à agir, puisqu'ils considéraient qu'il n'apparaissait pas en état d'assurer la fonction présidentielle.

Pour autant, le développement de l'usage des deepfakes, et les inéluctables progrès technologiques qui les rendront bientôt difficilement détectables vont avoir un impact considérable sur la genèse des conflictualités. Les conflictualités sont définies par les modélisations cindyniques du second ordre comme la propension des situations à dégénérer en conflits. Second ordre signifie ici que l'on prend en compte le fait que les acteurs observés dans une situation sont aussi des observateurs: ils ont chacun leur perception des acteurs de la situation réelle, i.e. leur perspective, et ils ont chacun une estimation personnelle de comment devraient être les acteurs pour que la situation soit idéale, i.e. une prospective. Les écarts, ou disparités, entre ces perspectives, et les écarts ou divergences entre prospectives sont les facteurs de la conflictualité.

L'apparition des deepfakes va boulverser les phénomènes de construction des perspectives des acteurs, ce qui affectera aussi la construction des prospectives, et augmentera les phénomènes de genèse des conflictualités. Les deepfakes pourront en particulier être utilisé par des entités, étatiques ou non, dont les objectifs sont de manipuler des opinions publiques, par exemple pour déstabiliser un pays en y exacerbant des tensions internes. Il est donc urgent non seulement d'investir dans des capacités de détection des deepfakes, mais aussi dans la sensibilisation et la formation des publics afin de les rendre plus résilients face à l'évolution de pratiques de désinformation online, en particulier par la diffusion d'une véritable culture de la réduction des conflictualités.