La démocratisation des accès Internet en Afrique apporte tant des opportunités que des risques, ce qui suggère de porter attention aux risques informationnels : la méthodologie cindynique décrit ces risques comme cruciaux dans la construction des perceptions, et donc dans la genèse des conflictualités, qui freinent le développement durable, et même le développement tout court.

Les Cindyniques du second-ordre permettent une approche transdisciplinaire et trans-sectorielle des complexes risques-conflits-développement, notamment grâce à la formalisation de la notion de conflictualité, vue comme un continuum. Dans cette approche immatérielle et organisationnelle de la dynamique des situations, les risques informationnels ont un rôle profond, et sont divisés en trois classes : le risque d'ouverture, le risque de fermeture, et le risque toxique.

La notion d'ouverture décrit le fait d'accéder à des informations confidentielles, voire de les divulguer. la notion de fermeture correspond au blocage de la publication d'informations à vocation publique, ou les tentatives de noircissement d'informations blanches. Et la notion de toxicité caractérise les informations diffusées lors d'opération de manipulation soit d'individus, soit de populations entières, celles relevant de désinformations plus ou moins accidentelles, ou encore la diffusion de messages générateurs de vulnérabilités ou conflictogènes.

Exemples de risques d'ouverture : la publication par l'AFNIL des noms réels des auteurs francophones auto-publiés. Ou la divulgation des noms réels des utilisateurs de Facebook, imposée par sa politique de prohibition du pseudonymat. Cette politique met des vies en danger, comme la débâcle états-unienne en Afghanistan l'a récemment démontré.

Exemples de risques de fermeture : La censure imposée par les Big Tech comme Facebook ou Twitter, qui menace tous les utilisateurs en général, les journalistes en particulier, et même les Présidents de pays africains. Le Président Nigérian a ainsi été censuré en juin dernier. Autre exemple : l'obligation de retrait de contenus imposée aux hébergeurs français depuis la transposition de la directive 2000/31 CE, qui les oblige à censurer les contenus avant l'intervention d'un juge. Cette obligation de censure par des intermédiaires techniques a ensuite été conceptualisée comme "auto-régulation". Si l'Union Européenne promeut cette auto-régulation, cela risque de faciliter la diffusion de la légalisation de cette pratique, y-compris en Afrique.

Exemples de risque toxique : Au Rwanda, en 1994, les appels à l'élimination des Tutsis par radio 1000 collines. Ou à la même époque, les éditoriaux de CNN s'opposant à une intervention de l'ONU au Rwanda. Plus récemment : les opérations de manipulation des opinions menées en Afrique par les trolls de la nébuleuse d'Eugène Prigogine. Ou encore les déclarations de Vincent Duclert à la suite de la publication du rapport sur le Rwanda commandé par la présidence française, qui reviennent de fait à une apologie des actions des groupes armés.

Ces risque sont reliés entre eux : par exemple la censure par les Big Tech des opinions exprimées sur les réseaux sociaux est un risque de fermeture qui mène à un risque toxique, puisque ces censures peuvent mener à une déformation de la réalité, et à une manipulation des opinions, éventuellement planifiée, en particulier en période électorale. Cela génère un risque de basculement des élections, voire de guerre civile.

Le risque d'ouverture généré par la prohibition du pseudonymat par Facebook n'a pas pour seule conséquence de mettre des vies en danger : il génère aussi un risque de censure, par le phénomène de chilling effect. C'est à dire que les utilisateurs conscients des risques liés à l'impossibilité de bénéficier de la protection du pseudonymat vont s'auto-censurer. Le risque ouverture provoque donc un risque de fermeture. Qui à son tour génère un risque de déformation de la réalité, soit un risque toxique.

Le risque toxique lié aux activité de la nébuleuse Prigogine mène à un risque de fermeture : Pour lutter contre ces activités, Facebook censure des contenus, en invoquant un concept de "comportements inauthentiques coordonnés" reposant sur sa politique de prohibition du pseudonymat. Cela génère un risque de fermeture puisqu'au nom de ce concept, Facebook censure des acteurs qui luttent contre la désinformation. Par ailleurs ce risque toxique génère  lui-même un autre risque toxique : en luttant contre des opérations de manipulations russes, Facebook insinue que l'armée française serait derrière les comptes luttant contre ces manipulations russes. Hypothèse ensuite reprise comme un fait par dans les médias: Facebook génère donc de la désinformation.

Par ailleurs, les opérations de manipulation sur internet, étatiques ou non, incitent les États à adopter des mesures législatives étendant la surveillance des usages d'Internet. Dans le cas de la France, c'est l'ensemble des activités de connexion des internautes français qui sont enregistrées systématiquement a priori. Ce qui constitue un risque d'ouverture considérable puisque c'est l'ensemble d'une population qui est mise sous surveillance : en comparaison, les quelques dizaine de milliers de personnes surveillées de façon ciblée par le logiciel israélien Pegasus apparaissent comme totalement négligeables, même si Ursula von der Leyden a violemment critiqué l'usage de Pegasus. Ce qui illustre au demeurant la notion cindynique de dégénérescence cindynique : les médias s'enflamment pour quelques dizaines de milliers de personnes ponctuellement surveillées, et ne mentionnent pas les dizaines de millions de français dont les logs de connexion sont enregistrés systématiquement.

Fondamentalement, tous ces problèmes renvoient à trois notions cindyniques. Tout d'abord la notion de limite invasive: la prévention passe par la perception des situations. Mais jusqu'où la prévention peut-elle aller dans l'acquisition d'information sur les acteurs des situations? A un moment, cette acquisition devient invasive, et provoque elle-même des dommages en portant atteinte aux confidentialités. Il y a donc là une  limitation fondamentale à la prévention, une sorte de principe d'incertitude, selon lequel une prévention parfaite causerait des dommages, et la protection des confidentialités limiterait la prévention. Le problème est : où est cette limite invasive, et qui peut en décider.

Ce qui mène directement à une autre notion cindynique : la diagonale de légitimité. Les Cindyniques du second ordre considèrent des spectre de situations différemment perçues par différents acteurs, qui ont des divergences sur les transformations qu'une situation doit suivre. Autrement dit chaque acteur souhaite en particulier des transformations particulières pour les autres acteurs. La notion de diagonale de légitimité illustre que dans un spectre de situations, chaque acteur a la légitimité de se transformer lui-même, mais n'a pas la légitimité de transformer les autres comme il le souhaite.

Enfin, cette dernière notion renvoie à la notion de diversité : au sens cindynique, la diversité est l'état d'une situation où les acteurs sont différents, mais où ils n'ont pas de divergences, et ne souhaitent pas changer les autres acteurs d'une façon qui n'est pas celle qu'ils souhaitent.