L
es nouvelles opportunités d’agrégation, d’analyse et de corrélations statistiques au sein de quantités massives de données (les big data), nous éloignant des perspectives statistiques traditionnelles de l’homme moyen, semblent permettre de « saisir » la « réalité sociale » comme telle, de façon directe et immanente, dans une perspective émancipée de tout rapport à « la moyenne » ou à la « normale », ou, pour le dire autrement, affranchie de la « norme » [1] . « Objectivité a-normative », ou même « télé-objectivité » (Virilio, 2006, p. 4), le nouveau régime de vérité numérique s’incarne dans une multitude de nouveaux systèmes automatiques de modélisation du « social » [2] , à la fois à distance et en temps réel, accentuant la contextualisation et la personnalisation automatique des interactions sécuritaires, sanitaires, administratives, commerciales [3] ... Il nous importera ici d’évaluer dans quelle mesure, et avec quelles conséquences, ces usages algorithmiques de la statistique, forts de leur « télé-objectivité », leur permettraient à la fois de devenir le miroir des normativités les plus immanentes [4] à la société, antécédentes à toute mesure ou à tout rapport à la norme [5] , à toute convention, à toute évaluation et aussi bien de contribuer à (re)produire et démultiplier cette normativité immanente (à la vie elle-même, dirait Canguilhem), fût-ce en obscurcissant alors les normativités sociales, rendant celles-ci, autant que possible, muettes, car intraduisibles sous une forme numérique.
2Il nous faut ici expliciter quelque peu cette indépendance par rapport à toute norme antécédente. Lorsque nous évoquons le caractère a-normatif de la gouvernementalité algorithmique, nous ne prétendons pas que les dispositifs techniques de la gouvernementalité algorithmique surgiraient spontanément du monde numérisé, de manière autonome et indépendante de toute intentionnalité humaine, de tout « script » technologique, ou que les applications, dans le domaine de la sécurité, du marketing ou du divertissement (pour ne citer que celles-là) intégrant ces systèmes algorithmiques auto-apprenants ne répondraient pas à une demande des acteurs [6] . La critique que nous développons relativement à la gouvernementalité algorithmique n’ignore ni n’invalide en rien le point de vue des sciences and technology studies, mais qu’il nous soit permis de focaliser notre attention sur autre chose que les mécanismes de co-construction entre dispositifs technologiques et acteurs humains. Nous disons simplement, ici, que le datamining, articulé à des finalités de profilage (quelles qu’en soient les applications), reconstruit, suivant une logique de corrélation, les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune norme générale, mais seulement à un système de rapports, éminemment évolutifs, entre diverses mesures, irréductibles à aucune moyenne. Cette émancipation par rapport à toute forme de moyenne tient notamment au caractère auto-apprenant de ces dispositifs, et peut être considérée comme essentielle à l’action normative contemporaine.
3C’est de ce point de vue que nous pouvons également dire que la gouvernementalité algorithmique rompt avec l’origine conventionnelle de l’information statistique, telle que décrite par Alain Desrosières (1992, p. 132) : « L’information statistique ne tombe pas du ciel comme pur reflet d’une “réalité” antérieure à elle. Bien au contraire elle peut être vue comme le couronnement provisoire et fragile d’une série de conventions d’équivalence entre des êtres qu’une multitude de forces désordonnées cherche continuellement à différencier et à disjoindre. » De cette origine conventionnelle de l’information statistique, il résulte que « la tension entre le fait que cette information prétend être une référence du débat, et que, cependant elle peut toujours être remise en cause et devenir ainsi l’objet du débat, porte en elle une des difficultés majeures pour penser les conditions de possibilité d’un espace public ». Les usages particuliers de la statistique impliqués dans les opérations de datamining, parce qu’ils ne s’ancrent plus dans aucune convention, font échapper à cet écueil mais, comme nous allons le voir plus loin, ils ne sont pas pour autant générateurs d’espace public, mais du contraire sous couvert de « personnalisation » des offres d’information, de services et de produits, c’est plutôt à une colonisation de l’espace public par une sphère privée hypertrophiée que nous aurions affaire à l’ère de la gouvernementalité algorithmique, au point de faire craindre que les nouveaux modes de filtrage de l’information aboutissent à des formes d’immunisation informationnelles favorables à une radicalisation des opinions et à la disparition de l’expérience commune (Sunstein, 2009), sans même évoquer la tendance à la captation systématique de toute parcelle d’attention humaine disponible au profit d’intérêts privés (l’économie de l’attention), plutôt qu’au profit du débat démocratique et de l’intérêt général.
4Nous commençons par décrire le fonctionnement de la statistique décisionnelle, entendue de manière très générique comme l’extraction automatisée d’informations pertinentes depuis des bases de données massives à des fins de prévision ou d’exclusion (consommation, risques, fidélisation, définition de clientèles nouvelles…). Pour rendre ceci manifeste, nous devons décomposer cette pratique statistique en trois étapes, qui concrètement se confondent (et sont d’ailleurs d’autant plus efficaces qu’elles se confondent). Nous montrerons chaque fois en quoi les sujets individuels sont en fait évités, au point de créer une sorte de double statistique des sujets, et du « réel ». Dans un deuxième temps, après avoir questionné ce double statistique, et indiqué qu’à ce stade il complique tout processus de subjectivation, nous tenterons de montrer que le gouvernement algorithmique se focalise dès lors non plus sur les individus, sur les sujets, mais sur les relations. Sur la base de ce constat, nous montrerons enfin à quel titre les relations elles-mêmes sont ainsi transformées, au point d’être paradoxalement substantifiées et de représenter une extraction du devenir, et donc un obstacle aux processus d’individuation – plutôt qu’une plus forte inscription dans celui-ci. Le devenir et les processus d’individuation réclament de la « disparation », c’est-à-dire des processus d’intégration de disparités ou différences dans un système coordonné, mais, de façon encore antécédente, ils réclament du « disparate » : une hétérogénéité des ordres de grandeur, une multiplicité des régimes d’existence, que la gouvernementalité algorithmique ne cesse d’étouffer en clôturant le réel (numérisé) sur lui-même [7] .
Les trois « temps » de la gouvernementalité algorithmique
Récolte de quantité massive de données et constitution de datawarehouses
5Le premier temps est celui de la récolte et de la conservation automatisée en quantité massive de données non triées, ce qu’on peut appeler la dataveillance constitutive du big data. De fait, les données sont disponibles en quantités massives, en provenance de diverses sources. Les gouvernements les récoltent à des fins de sécurité, de contrôle, de gestion des ressources, d’optimisation des dépenses… ; les entreprises privées recueillent quantité de données à des fins de marketing et de publicité, d’individualisation des offres, d’amélioration de leur gestion des stocks ou de leurs offres de service, bref, en vue d’accroître leur efficacité commerciale et donc leurs profits… ; les scientifiques collectionnent les données à des fins d’acquisition et d’amélioration de connaissances… ; les individus eux-mêmes partagent bénévolement « leurs » données sur les réseaux sociaux, les blogs, les « mailing lists »… et toutes ces données sont conservées sous une forme électronique dans des « entrepôts de données » aux capacités de stockage virtuellement illimitées et potentiellement accessibles à tout moment à partir de n’importe quel ordinateur connecté à l’Internet quel que soit le lieu du globe où il se trouve. Le fait que ces données soient récoltées et conservées autant que possible par défaut, qu’elles soient déliées de toute connaissance véritable des finalités recherchées par cette collecte d’information, c’est-à-dire des usages auxquels elles donneront lieu une fois corrélées à d’autres données, qu’elles consistent dans des informations qui sont plus abandonnées que cédées, des traces laissées et non des données transmises, mais sans apparaître pour autant comme « volées », qu’elles apparaissent aussi comme absolument quelconques et dispersées, tout cela donne lieu à une évacuation ou au minimum à un voilement de toute finalité, et à une minorisation de l’implication du sujet, et donc du consentement pouvant être donné à cette communication d’informations : nous semblons nous mouvoir ici au plus loin de toute forme d’intentionnalité.
6Ces données apparaissent ainsi constitutives d’un comportementalisme numérique généralisé (Rouvroy, 2013a) dès lors qu’elles expriment ni plus ni moins que les multiples facettes du réel, le dédoublant dans sa totalité, mais de manière parfaitement segmentée, sans faire sens collectivement, sinon comme dédoublement du réel. Celui-ci nous semble être le phénomène le plus nouveau : qu’il s’agisse de conserver la trace d’un achat, d’un déplacement, de l’usage d’un mot ou d’une langue, chaque élément est ramené à sa nature la plus brute, c’est-à-dire être tout à la fois abstrait du contexte dans lequel il est survenu et réduit à « de la donnée ». Une donnée n’est plus qu’un signal expurgé de toute signification propre – et c’est bien sûr à ce titre que nous tolérons de laisser ces traces, mais c’est aussi ce qui semble assurer leur prétention à la plus parfaite objectivité : aussi hétérogènes, aussi peu intentionnées, tellement matérielles et si peu subjectives, de telles données ne peuvent mentir ! On doit d’ailleurs souligner ici le fait que l’évolution même des capacités technologiques renforce cette sorte d’objectivité de la donnée qui échappe à toute subjectivité : nos logiciels sont désormais capables de reconnaître les émotions, d’en faire de la donnée, de traduire les mouvements d’un visage, les colorations d’une peau en donnée statistique, par exemple pour mesurer l’attractivité d’un produit, le caractère (sub-)optimal de la disposition des marchandises dans un étalage, aussi bien que le caractère suspect d’un passager. Ce qui est intéressant, c’est le fait que de telles données ont comme principale caractéristique d’être parfaitement anodines, de pouvoir rester anonymes, et d’être non contrôlables. À ce titre, à la fois on ne répugne pas à les abandonner, dès lors qu’elles ne font pas sens (tant qu’elles ne sont pas corrélées, du moins), elles sont bien moins intrusives qu’une carte de fidélité, et elles semblent ne pas mentir, c’est-à-dire pouvoir être considérées comme parfaitement objectives ! Cette inoffensivité et cette objectivité sont l’une et l’autre dues à une sorte d’évitement de la subjectivité.
Traitement des données et production de connaissance
7Le deuxième temps est celui du datamining proprement dit à savoir le traitement automatisé de ces quantités massives de données de manière à faire émerger des corrélations subtiles entre celles-ci. Ce qu’il nous semble ici fondamental de noter est le fait que nous nous trouvons ainsi face à une production de savoir (des savoirs statistiques constitués de simples corrélations) à partir d’informations non triées, et donc parfaitement hétérogènes, cette production de savoir étant automatisée, c’est-à-dire ne réclamant qu’un minimum d’intervention humaine, et surtout se passant de toute forme d’hypothèse préalable (comme c’était le cas avec la statistique traditionnelle qui « vérifiait » une hypothèse), c’est-à-dire évitant à nouveau toute forme de subjectivité. Le propre de ce qu’on appelle le machine learning est somme toute de rendre directement possible la production d’hypothèse à partir des données elles-mêmes. De la sorte, nous nous trouvons à nouveau face à l’idée d’un savoir dont l’objectivité pourrait paraître absolue, puisqu’il serait éloigné de toute intervention subjective (de toute formulation d’hypothèse, de tout tri entre ce qui est pertinent et ce qui ne serait que du « bruit », etc.). Les normes semblent émerger directement du réel lui-même. Ces normes ou ces « savoirs » ne sont cependant constitués « que » de corrélations [8] , ce qui n’est pas en soi un problème, si l’on n’oublie pas, c’est la condition même d’un ethos scientifique et d’un ethos politique, de conserver un doute, d’entretenir une méfiance par rapport à la suffisance des corrélations, de maintenir la distinction entre corrélation et cause, de se méfier des « effets » autoperformatifs des corrélations (leur capacité rétroactive), d’éviter que des décisions produisant des effets juridiques à l’égard de personnes ou les affectant de manière significative ne soient prises sur le seul fondement d’un traitement de données automatisé [9] , et de considérer que le propre de la politique (notamment le souci d’une mutualisation des risques) est de refuser d’agir sur la seule base de corrélations. Il semble important de rappeler ceci face à l’évolution vers un monde qui paraît de plus en plus fonctionner comme s’il était constitué lui-même de corrélations, comme si celles-ci étaient ce qu’il suffit d’établir pour en assurer le bon fonctionnement [10] .
Action sur les comportements
8Pour bien comprendre en quoi consiste le profilage algorithmique dont nous parlons ici, il faut percevoir la différence cruciale existant entre, d’une part, l’information au niveau individuel, laquelle est, le plus souvent, observable ou perceptible par l’individu auquel elle se rapporte, et, d’autre part, le savoir produit au niveau du profilage, qui n’est le plus souvent pas disponible aux individus ni perceptible par eux, mais qui leur est néanmoins appliqué de manière à en inférer un savoir ou des prévisions probabilistes quant à leurs préférences, intentions, propensions qui ne seraient pas autrement manifestes (Van Otterlo, 2013).
9Le troisième temps est celui de l’usage de ces savoirs probabilistes statistiques à des fins d’anticipation des comportements individuels, qui sont rapportés à des profils définis sur la base de corrélations découvertes par datamining. Ce temps de l’application de la norme sur les comportements individuels, dont les exemples les plus évidents sont perceptibles dans les sphères les plus diverses de l’existence humaine (obtention d’un certain crédit, décision d’intervention chirurgicale, tarification d’un contrat d’assurance, suggestion d’achats ciblés sur des sites de vente en ligne) nous concerne moins ici, sinon pour noter premièrement que l’efficacité prédictive sera d’autant plus grande qu’elle sera le fruit de l’agrégation de données massives, c’est-à-dire de données qui sont « simplement » à la hauteur de la diversité du réel lui-même [11] ; et deuxièmement que cette action par anticipation sur les comportements individuels pourrait à l’avenir toujours plus se limiter à une intervention sur leur environnement, a fortiori dès lors que l’environnement lui-même est réactif et intelligent, c’est-à-dire qu’il récolte lui-même des données en temps réel par la démultiplication des capteurs, les transmet et les traite pour s’adapter sans cesse à des besoins et dangers spécifiques, ce qui est déjà au minimum le cas durant cette partie importante de la vie humaine durant laquelle les individus sont connectés. De la sorte à nouveau, on évite toute forme de contrainte directe sur l’individu pour préférer rendre, au niveau même de son environnement, sa désobéissance ou certaines formes de marginalité toujours plus improbables. Troisièmement, le profil « lié » au comportement d’un individu pourrait lui être adapté de façon parfaitement efficace, de par la démultiplication des corrélations employées, au point de sembler éviter l’usage de toute catégorie discriminante, et de pouvoir même prendre en compte ce qu’il y a de plus particulier dans chaque individu, de plus éloigné des grands nombres et des moyennes. Bref, nous nous trouvons face à la possibilité d’une normativité en apparence parfaitement « démocratique », dépourvue de référence à des classes et catégories générales – la cécité des algorithmes relativement aux catégorisations (sociales, politiques, religieuses, ethniques, de genre…) socialement éprouvées est d’ailleurs l’argument récurrent que brandissent ceux qui sont favorables à leur déploiement en lieu et place de l’évaluation humaine (dans les aéroports notamment) (Zarsky, 2011). Le datamining et le profilage algorithmique, dans leur rapport en apparence non sélectif au monde, semblent prendre en considération l’entièreté de chaque réel jusque dans ses aspects les plus triviaux et insignifiants, mettant tout le monde à égalité – l’homme d’affaires et la femme de ménage, le Sikh et l’Islandais. Il ne s’agit plus d’exclure ce qui sort de la moyenne, mais d’éviter l’imprévisible, de faire en sorte que chacun soit véritablement lui-même.
Un gouvernement sans sujet, mais pas sans cible ?
10Comme nous l’avons annoncé, les trois temps décrits se confondent, et leur fonctionnement normatif est d’autant plus puissant et processuel que ces trois temps se nourrissent mutuellement (masquant d’autant plus les finalités, éloignant d’autant plus de toute possibilité d’intentionnalité, s’adaptant d’autant plus à notre propre réalité, etc.). Par gouvernementalité algorithmique, nous désignons dès lors globalement un certain type de rationalité (a)normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles. Si on se réfère au socle général de la pensée statistique [12] , les déplacements apparents qui seraient produits actuellement par le passage du gouvernement statistique au gouvernement algorithmique, et qui donneraient sens à un phénomène de raréfaction des processus de subjectivation, sont donc les suivants : tout d’abord, une apparente individualisation de la statistique (avec l’antinomie évidente qui s’exprime ainsi), laquelle ne transiterait plus (ou ne semblerait plus transiter) par des références à l’homme moyen, pour donner place à l’idée qu’on deviendrait à soi-même son propre profil automatiquement attribué et évolutif en temps réel. Ensuite, un souci accru d’éviter le danger d’une pratique statistique tyrannique qui réduirait l’objet statistique à du bétail, en veillant à ce que cette pratique statistique se développe comme si notre accord était donné, puisque c’est en tant que nous sommes chacun uniques que le mode de gouvernement par les algorithmes prétend s’adresser à chacun à travers son profil. Plutôt que d’un accord, ou même d’un consentement, ce à quoi nous avons ici affaire relève de l’adhésion par défaut à une normativité aussi immanente que celle de la vie même ; la pratique statistique contemporaine inclurait donc, en elle-même, l’expression de l’adhésion tacite des individus. D’où un possible déclin de la réflexivité subjectivante, et l’éloignement des occasions de mise à l’épreuve des productions de « savoir » fondées sur le datamining et le profilage. La gouvernementalité algorithmique ne produit aucune subjectivation, elle contourne et évite les sujets humains réflexifs, elle se nourrit de données infra-individuelles insignifiantes en elles-mêmes, pour façonner des modèles de comportements ou profils supra-individuels sans jamais en appeler au sujet, sans jamais l’appeler à rendre compte par lui-même de ce qu’il est ni de ce qu’il pourrait devenir. Le moment de réflexivité, de critique, de récalcitrance, nécessaire pour qu’il y ait subjectivation semble sans cesse se compliquer ou être postposé (Rouvroy, 2011). C’est que la gouvernementalité algorithmique, de par sa parfaite adaptation au « temps réel », sa « viralité » (plus on s’en sert, plus le système algorithmique s’affine et se perfectionne, puisque toute interaction entre le système et le monde se traduit par un enregistrement de données numérisées, un enrichissement corrélatif de la « base statistique », et une amélioration des performances des algorithmes), sa plasticité, rend la notion même de « raté » insignifiante : le « raté » ne peut, en d’autres termes, mettre le système en « crise », il est immédiatement réingurgité afin de raffiner encore les modèles ou profils de comportements. Par ailleurs, suivant l’objectif de l’application qui est faite des dispositifs algorithmiques – par exemple la prévention des fraudes, du crime, du terrorisme –, les « faux positifs » ne seront jamais interprétés comme des « ratés » puisque le système suit une logique de dépistage plutôt que de diagnostic : le but est de ne rater aucun vrai positif, quel que soit le taux de faux positifs.
11Ce n’est bien sûr pas le projet, même accru, d’anticiper les comportements de manière individuelle et douce qui doit comme tel nous surprendre, voire nous inquiéter, même s’il convient d’emblée de souligner le paradoxe selon lequel, désormais, pour éradiquer ou minimiser l’incertitude, on s’en remet à des « appareils » non intentionnels, c’est-à-dire à des machines a-signifiantes, en abandonnant de la sorte l’ambition de donner de la signification aux événements, qui ne sont d’ailleurs plus nécessairement traités comme des événements, puisque chacun peut tout aussi bien être décomposé en réseau de données ré-agrégées à d’autres données, indépendantes des événements dont il pourrait être « actuellement » question. De la sorte, la gouvernementalité algorithmique ne cesse de « battre les cartes », ce qui nous sort de la perspective « historique » ou « généalogique » (Rouvroy, 2013b).
12Le sujet de la gouvernementalité algorithmique est, de plus en plus, saisi par le « pouvoir », non pas à travers son corps physique, ni à travers sa conscience morale – prises traditionnelles du pouvoir dans sa forme juridico-discursive [13] – mais à travers les multiples « profils » qui lui sont assignés, souvent de manière automatique sur la base des traces numérisées de son existence et de ses trajectoires quotidiennes. La gouvernementalité algorithmique correspond assez bien à ce que Foucault visait déjà sous son concept de dispositif de sécurité :
13« La régulation d’un milieu dans lequel il ne s’agit pas tellement de fixer les limites, les frontières, dans lequel il ne s’agit pas tellement de déterminer les emplacements, mais surtout essentiellement de permettre, de garantir, d’assurer les circulations : circulation des gens, circulation des marchandises, circulation de l’air, etc. » (Foucault, 2004, p. 31).
14Que les « prises » du pouvoir soient numériques plutôt que physiques ne signifie nullement que les individus soient réductibles, ontologiquement, existentiellement, à des réseaux de données recombinables par des appareils, ni qu’ils soient totalement sous l’emprise de leurs appareils. Cela signifie simplement que, quelles que soient par ailleurs leurs capacités d’entendement, de volonté, d’expression, ce n’est plus prioritairement à travers ces capacités qu’ils sont interpellés par le « pouvoir », mais plutôt à travers leurs « profils » (de fraudeur potentiel, de consommateur, de terroriste potentiel, d’élève à fort potentiel…). La gouvernementalité algorithmique intensifie encore les ambivalences de l’époque relativement à la question de l’individualisation. On considère souvent notre époque comme étant, d’une part celle de la victoire de l’individu au sens où nous constaterions une individualisation des services, étant donné la possibilité, offerte par les pratiques statistiques, de cibler de manière fine les besoins et les dangers propres à chaque individu, et, d’autre part, celle de la mise en danger de l’individu, dont l’intimité, la vie privée, l’autonomie, l’autodétermination seraient menacées par ces mêmes pratiques. D’aucuns évoquent même les risques d’une pure désubjectivation. Les deux hypothèses – celle de l’individu au centre de tout et celle de la désubjectivation – sont, à notre avis, aussi fausses l’une que l’autre. Voyons cela.
La personnalisation est-elle réellement une forme d’individuation ?
15IBM présente le marketing « individualisé » – « smart marketing » –, comme une révolution transformant le marketing et la publicité en « services aux consommateurs ». C’est le grand retour du consommateur-roi, lequel, placé au centre des préoccupations des entreprises, n’a même plus à concevoir ni exprimer ses désirs qui sont des ordres. Comme le dit Éric Schmidt, Directeur général de Google : « Nous savons en gros qui vous êtes, en gros ce qui vous intéresse, en gros qui sont vos amis [c’est-à-dire on connaît votre « banc de poissons »]. La technologie va être tellement bonne qu’il sera très difficile pour les gens de voir ou de consommer quelque chose qui n’a pas été quelque part ajusté pour eux » (c’est-à-dire qu’une prédiction en apparence individualisée serait possible). Cette forme d’individualisation s’apparente, de fait, à une hyper-segmentation et à une hyper-plasticité des offres commerciales davantage qu’à la prise en compte globale des besoins, désirs, propres à chaque personne. Au contraire, bien sûr, l’objectif n’est pas tant d’adapter l’offre aux désirs spontanés (pour peu qu’une telle chose existe) des individus, mais plutôt d’adapter les désirs des individus à l’offre, en adaptant les stratégies de vente (la manière de présenter le produit, d’en fixer le prix…) au profil de chacun. Ainsi, les stratégies de « dynamic pricing » ou d’adaptation du prix de certains services ou de certaines marchandises à la « willingness to pay » de chaque consommateur potentiel seraient déjà à l’œuvre sur certains sites de vente de voyages aériens en ligne. Plus que d’individualisation, c’est bel et bien de segmentation de marché qu’il convient de parler ici. Un exemple, assez trivial : connectez-vous sur le site d’une compagnie aérienne dont on taira le nom (la compagnie Y) et renseignez-vous sur les prix d’un billet d’avion pour Pise, au départ de Bruxelles, avec un départ dans trois jours. Disons que s’affiche un prix de 180 euros. Trouvant le prix un peu trop élevé, vous vous rendez sur le site d’une autre compagnie (la compagnie Z), ou vous vous renseignez ailleurs, sur internet, pour trouver un billet moins cher. Mettons que vous ne trouviez pas mieux. Vous retournez alors sur le site de la compagnie Y et là – oh surprise – vous vous rendez compte que le prix du billet a augmenté de 50 euros en l’espace d’une demi-heure à peine, le temps que vous fassiez votre petite enquête. C’est, tout simplement, parce qu’un profil « voyageur captif » vous a été attribué : il a été détecté, d’après votre parcours sur internet et la date de départ souhaitée, que vous avez vraiment besoin de ce billet d’avion et que vous serez donc disposé(e) à dépenser 50 euros de plus pour obtenir ce billet, d’autant que vous aurez l’impression que si vous ne l’achetez pas rapidement, le prix ne fera que grimper. Si, au lieu de réagir « logiquement » en achetant au plus vite le billet, vous changez d’ordinateur, d’adresse IP, et vous rendez à nouveau sur le site de la compagnie aérienne, votre billet vous coûtera 180 euros au lieu de 230 euros. Explication ? Le premier réflexe, ce sur quoi le vendeur compte, c’est celui d’acheter au plus tôt, suivant l’« alerte » qui est lancée : le prix augmente, et vite. Dans ce cas-ci les conséquences sont relativement triviales. Mais on voit bien, dans cet exemple, que, plutôt que de respecter scrupuleusement les désirs individuels de chaque consommateur singulier, il s’agit, au contraire, se basant sur la détection automatique de certaines propensions (d’achat), de la détection de l’(in)élasticité de la demande individuelle relativement à une variation de prix, de susciter l’acte d’achat, sur le mode de la réponse-réflexe à un stimulus d’alerte court-circuitant la réflexivité individuelle et la formation du désir singulier.
16C’est donc de produire du passage à l’acte sans formation ni formulation de désir qu’il s’agit. Le gouvernement algorithmique paraît de ce fait signer l’aboutissement d’un processus de dissipation des conditions spatiales, temporelles et langagières de la subjectivation et de l’individuation au profit d’une régulation objective, opérationnelle des conduites possibles, et ce, au départ de « données brutes » en elles-mêmes a-signifiantes, et dont le traitement statistique vise avant tout à accélérer les flux – épargnant toute forme de « détour » ou de « suspension réflexive » subjective entre les « stimuli » et leurs « réponses réflexes ». Que ce qui « coule » ainsi soit a-signifiant n’a plus aucune importance [14] . Grâce au fait que les signaux numériques « peuvent être calculés quantitativement quelle que soit leur signification » (Eco, 1976, p. 20 cité par Genosko, 2008), tout se passe comme si la signification n’était plus absolument nécessaire, comme si l’univers était déjà – indépendamment de toute interprétation – saturé de sens, comme s’il n’était plus, dès lors, nécessaire de nous relier les uns aux autres par du langage signifiant, ni par aucune transcription symbolique, institutionnelle, conventionnelle. Les dispositifs de la gouvernementalité algorithmique parachèvent donc, semble-t-il, à la fois l’émancipation des signifiants par rapport aux signifiés (mise en nombres, recombinations algorithmiques des profils) et la substitution des signifiés aux signifiants (production de la réalité à même le monde – le seul réel qui « compte », pour la gouvernementalité algorithmique, est le réel numérique) (Rouvroy, 2013b). Cette affectation, à un stade préconscient, de l’action humaine, a tout à voir avec ce que Bernard Stiegler appelle la prolétarisation :
17« La prolétarisation, c’est historiquement la perte du savoir du travailleur face à la machine qui a absorbé ce savoir. Aujourd’hui, la prolétarisation, c’est la standardisation des comportements à travers le marketing et les services, et la mécanisation des esprits par l’extériorisation des savoirs dans des systèmes tels que ces “esprits” ne savent plus rien de ces appareils de traitement de l’information qu’ils ne font plus que paramétrer : c’est précisément ce que montre la mathématisation électronique de la décision financière. Or cela affecte tout le monde : employés, médecins, concepteurs, intellectuels, dirigeants. De plus en plus d’ingénieurs participent à des processus techniques dont ils ignorent le fonctionnement, mais qui ruinent le monde » (Stiegler, 2011).
18Maurizio Lazaratto résume par ailleurs assez bien la manière dont les sémiotiques a-signifiantes, dont le comportementalisme numérique est exemplaire, produisent l’asservissement machinique, plutôt que l’aliénation subjective :
19« Si les sémiotiques signifiantes ont une fonction d’aliénation subjective, d’“assujettissement social”, les sémiotiques a-signifiantes ont une fonction d’“asservissement machinique”. Les sémiotiques a-signifiantes opèrent une synchronisation et une modulation des composantes pré-individuelles et pré-verbales de la subjectivité, en faisant fonctionner les affects, les perceptions, les émotions, etc., comme des pièces, des composantes, des éléments d’une machine (asservissement machinique). Nous pouvons fonctionner tous comme des composants d’input/output de machines sémiotiques, comme de simples relais de la télévision ou d’Internet, qui font passer et/ou empêchent le passage de l’information, de la communication, des affects. À la différence des sémiotiques signifiantes, les sémiotiques a-signifiantes ne connaissent ni les personnes, ni les rôles, ni les sujets. […] Dans le premier cas, le système parle et fait parler. Il indexe et rabat la multiplicité des sémiotiques pré-signifiantes et symboliques sur le langage, sur les chaînes linguistiques, en privilégiant ses fonctions représentatives. Tandis que, dans le deuxième cas, il ne fait pas de discours, il ne parle pas, mais il fonctionne, il met en mouvement, en se connectant directement sur le “système nerveux, sur le cerveau, sur la mémoire, etc.” en activant des relations affectives, transitivistes, transindividuelles difficilement attribuables à un sujet, à un individu, à un moi » (Lazaratto, 2006).
Les paradoxes de la personnalisation : une gouvernementalité algorithmique sans sujets mais compatible avec les phénomènes d’hyper-subjectivation contemporains
20L’hypothèse de la désubjectivation, de la « mise en danger de l’individu », de sa dilution dans les réseaux, pour « impressionnante » qu’elle soit, n’est pas du tout évidente. On pourrait même dire que les réseaux sociaux, etc. – sans doute parce qu’ils sont, pour leurs usagers, parcourus de sémiotiques signifiantes – produisent des « hyper-sujets », que la production de subjectivité est devenue l’activité obnubilée d’un bon nombre de personnes, leur raison de vivre même. Il nous semble donc trop rapide de dire tout simplement que les transformations en cours ne produiraient que de la désubjectivation, parce qu’elles affaiblissent les remparts de l’intimité (et même cela n’est pas totalement évident : certains dispositifs de la société de l’information renforcent, au contraire, l’isolement des individus, les préservant d’interactions avec autrui…), de la vie privée, et parce qu’elles toucheraient peut-être aux conditions de l’autonomie et du libre choix (mais il faudrait encore voir dans quel sens cela se passe : des environnements intelligents qui nous dispenseraient de devoir en permanence faire des choix dans des domaines tout à fait triviaux peuvent aussi nous libérer l’esprit, nous rendre disponibles pour des tâches intellectuelles plus intéressantes, plus altruistes, etc.) Pourtant, impressionnées essentiellement par les risques de révélation d’informations personnelles, intimes ou sensibles, de divulgations inopportunes, de perte de contrôle des individus sur « leurs » profils, d’atteintes portées au principe de l’autonomie et de l’autodétermination individuelles, les législations de protection de la vie privée et des données à caractère personnel se sont essentiellement efforcées d’ériger, autour de l’individu, une série de « barrières » aux tonalités essentiellement défensives et restrictives.
21Sans considérer ceci comme vain, nous voulons signaler ici avec force l’indifférence de ce « gouvernement algorithmique » pour les individus, dès lors qu’il se contente de s’intéresser et de contrôler notre « double statistique », c’est-à-dire des croisements de corrélations, produits de manière automatisée, et sur la base de quantités massives de données, elles-mêmes constituées ou récoltées « par défaut ». Bref, ce que nous sommes « en gros », pour reprendre la citation d’Éric Schmidt, ce n’est justement plus aucunement nous-mêmes (êtres singuliers). Et c’est justement cela le problème, problème qui, comme nous le verrons, relèverait plutôt d’une raréfaction des processus et occasions de subjectivation, d’une difficulté à devenir des sujets, que d’un phénomène de « désubjectivation » ou de mise en danger de l’individu.
22Les choses étant ainsi balisées, revenons à la question du sujet, ou plutôt de son « évitement » dans le processus normatif en trois temps décrit ci-dessus. Ce qui se constate d’abord, c’est une difficulté à produire un sujet algorithmique qui se réfléchit ou se pense comme tel. Tout d’abord, comme on l’a vu, le consentement du sujet est faible quand il transmet de l’information (ces données qui peuvent souvent être utilisées tout en restant anonymes… mais elles pourraient aussi bien ne plus l’être, leur anonymat n’ayant lui-même plus qu’un sens tout relatif), non pas que celle-ci lui serait « volée », ce qui lui permettrait de s’y opposer, de se constituer comme sujet résistant contre un tel vol. Mais plutôt : on assiste à un affaiblissement considérable du caractère « délibéré » des divulgations d’informations – le plus souvent triviales, anodines, segmentées, décontextualisées – de ces « traces » dont la trajectoire et les usages subséquents sont, pour le « sujet », imprévisibles et incontrôlables même si le développement d’outils techniques devant permettre aux « utilisateurs » des services informatiques de mieux contrôler « leurs » données fait aujourd’hui l’objet d’investissements de recherche conséquents. Du point de vue de leur traitement, ensuite, on constate que les « savoirs » produits ont comme principale caractéristique de paraître émerger directement de la masse des données, sans que l’hypothèse menant à ces savoirs ne leur préexiste : les hypothèses sont elles-mêmes « générées » à partir des données. Enfin, l’action normative découlant de ces processus statistiques pourra toujours plus équivaloir à une action sur et donc par l’environnement, et toujours moins à une action sur l’individu lui-même. L’action de ce dernier n’est plus agie par confrontation directe à une norme extérieure – loi, moyenne, définition de la normalité –, mais ses possibles sont directement organisés au sein même de son environnement.
23À ces trois titres, la force aussi bien que le danger de la généralisation des pratiques statistiques à laquelle nous assistons résideraient non pas dans leur caractère individuel, mais au contraire dans leur autonomie ou même dans leur indifférence par rapport à l’individu. Notre problème, pour l’exprimer de la manière la plus explicite, n’est pas d’être dépossédé de ce que nous considérerions comme nous étant propre, ou d’être contraint à céder des informations qui attenteraient à notre vie privée ou à notre liberté, mais il viendrait bien plus fondamentalement du fait que notre double statistique est trop détaché de nous, que nous n’avons pas de « rapport » avec lui, alors même que les actions normatives contemporaines se suffisent de ce double statistique pour être efficaces. En d’autres mots, là où le confessionnal fabrique le sujet de l’introspection qui sonde son âme, sa vertu, ses désirs et ses intentions les plus profondes puisqu’à travers le processus de l’aveu « celui qui parle s’engage à être ce qu’il affirme qu’il est, et, précisément, parce qu’il est cela » (Foucault, 2012, p. 5), là où la loi produit des sujets de droit soucieux de leur égalité et de l’impartialité des procédures, là où l’homme moyen apparaissait comme trop moyen par rapport à tout sujet singulier susceptible de se constituer contre cette moyenne, le gouvernement algorithmique ne donne ni lieu, ni prise à aucun sujet statistique actif, consistant, réflexif susceptible de le légitimer ou de lui résister [15] . C’est précisément ce à quoi nous devons désormais veiller, essentiellement par la connaissance (même technique) et la reconnaissance de l’écart, de la différence entre ces représentations statistiques et ce qui constitue les individus dans les processus d’individuation qui sont les leurs, avec les moments de spontanéité, les événements, les pas de côté par rapport à des possibles anticipés, qui prévalent dans ces processus.
24En revanche, ce qui nous semble moins dépassable, et dessiner donc à ce titre une véritable rupture, c’est l’apparition de possibilités de savoirs qui ne présupposeraient plus l’expression d’aucune hypothèse, et qui signeraient à ce titre la disparition, au moins dans une partie de l’espace social, de l’idée du projet [16] . Il ne s’agit pas tant, de la sorte, de regretter la perte de l’idée du projet entendu comme applicable ou vérifiable, mais plutôt comme déplaçable, c’est-à-dire précisément comme pouvant éprouver des ratés et faire sur cette base histoire en étant sans cesse repris et transformé. Or, même pour un organisme, même pour la vie, pour l’organique en tant que lieu d’une activité normative, il y a du raté, du conflit, du monstrueux, de la limite et du dépassement de la limite, avec les déviations et les déplacements que cela induit dans la vie, comme l’a montré Canguilhem. Avec le gouvernement algorithmique, on tendrait à considérer la vie sociale comme la vie organique, mais en considérant celle-ci comme si les adaptations qui s’y développent ne relevaient plus de déplacements et de ratés, comme si elles ne pouvaient plus dès lors produire aucune crise ni interruption ni ne devaient plus réclamer aucune comparution ni mise à l’épreuve des sujets, ni des normes elles-mêmes.
25Le champ d’action de ce « pouvoir » n’est pas situé dans le présent, mais dans l’avenir. Cette forme de gouvernement porte essentiellement sur ce qui pourrait advenir, sur les propensions plutôt que sur les actions commises, à la différence de la répression pénale ou des règles de la responsabilité civile, par exemple, qui ne se trouvent concernées que par des infractions qui auraient été commises ou qui seraient en train d’être commises (en cas de flagrant délit), ou des dommages qui auraient été causés. Plus activement, le gouvernement algorithmique non seulement perçoit le possible dans l’actuel, produisant une « réalité augmentée », une actualité dotée d’une « mémoire du futur », mais donne aussi consistance au rêve d’une sérendipité systématisée : notre réel serait devenu le possible, nos normes veulent anticiper correctement et de manière immanente le possible, le meilleur moyen étant bien sûr de nous présenter un possible qui nous corresponde et dans lequel les sujets n’auraient plus qu’à se glisser. La différence par rapport à la normativité juridico-discursive doit ici être soulignée : là où celle-ci était donnée, de manière discursive et publique, avant toute action sur les comportements, lesquels étaient donc contraints par elle, mais conservaient, au risque de la sanction, la possibilité de ne pas lui obéir, la normativité statistique est précisément ce qui n’est jamais donné au préalable, et qui résiste à toute discursivité, ce qui est incessamment contraint par les comportements eux-mêmes, et qui paradoxalement semble rendre impossible toute forme de désobéissance [17] . Le résultat est que, si l’on reste dans une perspective individualiste, libérale, l’action sur les comportements, ce que nous appelons le « gouvernement algorithmique », apparaît à la fois comme fondamentalement inoffensif et comme parfaitement objectif, puisque fondé sur une réalité antécédente à toute manifestation d’entendement ou de volonté subjectifs, individuels ou collectifs, une réalité qui, paradoxalement, paraît d’autant plus fiable et objective qu’elle fait abstraction de notre entendement, pour nourrir le rêve d’un gouvernement parfaitement démocratique. Face à un tel « rêve », il convient au minimum de rappeler que nos comportements n’ont jamais été autant agis – observés, enregistrés, classés, évalués –, et ce sur des bases et en fonction de codes d’intelligibilité et de critères absolument opaques à la compréhension humaine, que sur cette base statistique. L’inoffensivité, la « passivité » du gouvernement algorithmique n’est alors qu’apparente : le gouvernement algorithmique « crée » une réalité au moins autant qu’il l’enregistre. Il suscite des « besoins » ou désirs de consommation, mais de la sorte il dépolitise les critères d’accès à certains lieux, biens ou services ; il dévalorise la politique (puisqu’il n’y aurait plus à décider, à trancher, dans des situations d’incertitude dès lors que celles-ci sont d’avance désamorcées) ; il dispense des institutions, du débat public ; il se substitue à la prévention (au profit de la seule préemption), etc. [18]
26S’il fallait resituer ce mouvement dans une perspective longue, et en résistant cette fois à la perspective de la pure nouveauté (laquelle n’aurait de sens que par rapport au modèle juridico-discursif), nous devons constater que ce gouvernement algorithmique approfondit encore l’idéal libéral d’une apparente disparition du projet même de gouverner : comme nous l’avons montré ailleurs (Berns, 2009), il ne s’agit plus de gouverner le réel, mais de gouverner à partir du réel. L’évolution technologico-politique ici décrite accomplit cette tendance [19] , au point que le fait de ne pas (vouloir) être gouverné pourrait désormais équivaloir à ne pas se vouloir soi-même (et ce sans signifier pour autant que notre intimité aurait été violée).
Les relations comme cibles du « pouvoir » dans la gouvernementalité algorithmique ?
27Au-delà de ce diagnostic encore moral et normatif, ou peut-être pour le renforcer, peut-on maintenant tenter de cerner ce au profit de quoi les sujets seraient évités ? Qu’est-ce qui est l’objet ou la cible des trois temps décrits, et plus globalement du gouvernement algorithmique, si ce ne sont pas les individus eux-mêmes ? Ou encore : que s’agit-il de gouverner en empêchant ou au moins en compliquant la possibilité même des processus de subjectivation ? Notre hypothèse est que l’objet – qui ne parvient donc pas à devenir sujet – du gouvernement algorithmique, ce sont précisément des relations : les données transmises sont des relations [20] et ne subsistent que comme relations ; les connaissances générées sont des relations de relations ; et les actions normatives qui en découlent sont des actions sur des relations (ou des environnements) référées à des relations de relations. C’est donc en tant qu’il serait, dans la réalité même de ses pratiques visant à organiser le possible, un gouvernement des relations que nous voulons maintenant tenter de cerner l’éventuelle nouveauté de ce gouvernement algorithmique.
28Il s’agit donc à présent de transposer notre double interrogation (sur l’objectivité miroitante et la productivité de la statistique algorithmique) dans les registres simondonnien et deleuzien/guattarien. Nous voulons montrer que cette télé-objectivité productive à l’œuvre dans les pratiques de datamining et de profilage algorithmique, alors qu’elle semble a priori quitter le registre du sujet et donc potentiellement permettre ce que Simondon désigne comme processus d’individuation transindividuel – qui ne se résume ni au je, ni au nous, mais désigne un processus de co-individuation du « je » et du « nous » produisant du social, c’est-à-dire des milieux associés où se forment des significations –, forclôt au contraire les possibilités de telles individuations transindividuelles en repliant les processus d’individuation sur la monade subjective.
29Par ailleurs, nous montrerons que l’abandon de toute forme d’« échelle », d’« étalon », de hiérarchie, au profit d’une normativité immanente et éminemment plastique (Deleuze et Guattari, 1980) n’est pas nécessairement favorable à l’émergence de formes de vie nouvelles au sens d’une émancipation décrite par Deleuze et Guattari sous la forme du dépassement du plan d’organisation par le plan d’immanence, d’une table rase des anciennes hiérarchies dans laquelle l’homme normal ou l’homme moyen occuperait une place majeure [21] .
Perspectives transindividuelles et rhizomatiques
30L’incitation à aborder la gouvernementalité algorithmique sous l’angle simondonnien provient de ce que ce mode de gouvernement semble ne plus avoir pour appui et pour cible les sujets, mais les relations en tant qu’elles sont antérieures à leurs termes, c’est-à-dire non pas seulement les relations sociales, intersubjectives en tant qu’elles construisent les individus, en ce que tout individu serait considéré comme la somme de ces relations, mais plutôt les relations elles-mêmes indépendamment de toute individuation simple et linéaire, les relations en tant qu’elles restent inassignables aux individus qu’elles relient, au sens donc où de la « relationalité » subsisterait aussi par-delà les individus qu’elles lient. Faudrait-il donc, pour saisir à quoi nous avons affaire, passer avec Simondon d’une ontologie ou d’une métaphysique classique de la substance, centrée sur l’individu et les états (dans le cadre de laquelle on attribue des relations à un individu), à une ontologie de la relation (dans laquelle les relations « priment » ontologiquement sur les individus qu’elles traversent) ou encore à une ontogenèse soucieuse du devenir et donc de comprendre le mouvement même de l’individuation ? Il est important de noter d’emblée que cette hypothèse nous éloignerait à la fois d’un certain individualisme « nominaliste » (qui suppose la réalité des seuls individus à partir desquels éventuellement on pourrait abstraire des universaux), mais aussi d’un certain « réalisme » de type holiste qui présupposerait que les essences collectives, les genres, les classes préexistent aux individus, lesquels seraient entièrement subsumables dans les essences collectives. Penser la relation de manière première, pour elle-même, de manière constitutive, reviendrait en somme à rompre avec le mouvement vertical nous menant du particulier au général, quelle qu’en soit la direction.
31La ressemblance apparaît tout aussi frappante entre les processus de production et de transformation continue des profils générés automatiquement, en temps réel, de façon purement inductive, par croisement automatique de données hétérogènes (datamining), et les métabolismes propres au rhizome de Deleuze et Guattari :
32« Le rhizome ne se laisse ramener ni à l’Un ni au multiple. Il n’est pas l’Un qui devient deux, ni même qui deviendrait directement trois, quatre ou cinq, etc. […] À l’opposé d’une structure qui se définit par un ensemble de points et de positions, de rapports binaires entre ces points et de relations biunivoques entre ces positions, le rhizome n’est fait que de lignes : lignes de segmentarité, de stratification, comme dimensions, mais aussi ligne de fuite ou de déterritorialisation comme dimension maximale d’après laquelle, en la suivant, la multiplicité se métamorphose en changeant de nature. On ne confondra pas de telles lignes, ou linéaments, avec les lignées de type arborescent, qui sont seulement des liaisons localisables entre points et positions. À l’opposé de l’arbre, le rhizome n’est pas objet de reproduction : ni reproduction externe comme l’arbre-image, ni reproduction interne comme la structure-arbre. Le rhizome est une antigénéalogie. C’est une mémoire courte, ou une antimémoire. Le rhizome procède par variation, expansion, conquête, capture, piqûre. […] Contre les systèmes centrés (même polycentrés), à communication hiérarchique et liaisons préétablies, le rhizome est un système acentré, non hiérarchique et non signifiant, sans Général, sans mémoire organisatrice ou automate central, uniquement défini par une circulation d’états » (Deleuze et Guattari, 1980, pp. 30-31).
33Le rapport entre l’ontologie de la relation chez Simondon et la métaphore du rhizome chez Deleuze et Guattari tient aussi au fait que, dans la description de ces derniers, « Un rhizome ne commence pas et n’aboutit pas, il est toujours au milieu, entre les choses, un inter-être, intermezzo. L’arbre est filiation, mais le rhizome est alliance, uniquement alliance. L’arbre impose le verbe “être”, mais le rhizome a pour tissu la conjonction “et… et… et”. Il y a dans cette conjonction assez de force pour déraciner le verbe être […]. Entre les choses ne désigne pas une relation localisable qui va de l’une à l’autre et réciproquement, mais une direction perpendiculaire, un mouvement transversal qui emporte l’une et l’autre, ruisseau sans début ni fin, qui ronge ses deux rives et prend la vitesse entre les deux » (Deleuze et Guattari, 1980, pp. 36-37).
34Il nous importera donc de voir dans quelle mesure, à quelles conditions, moyennant quelles réserves, l’apparition d’outils sociaux en apparente harmonie [22] avec le dépassement que Simondon réclamait de la métaphysique de la substance pour saisir le devenir à l’œuvre dans les processus d’individuation, et le dépassement du plan d’organisation par le plan d’immanence, que Deleuze et Guattari célébraient comme émancipateur [23] , peuvent réellement contribuer à l’émergence de formes de vie émancipées.
35Si la pensée de l’individuation de Simondon apparaît comme la tentative la plus accomplie de penser la relation et l’association d’un individu à un milieu [24] , c’est dans la mesure où il s’affranchit de l’acception aristotélicienne de la relation, qui lui présupposait toujours la substance, et la réduisait ainsi à sa teneur strictement logique. En refusant ce primat de la substance, en passant donc d’une métaphysique des états à une métaphysique de leurs modifications ou de leur devenir, Simondon confère au contraire à la relation une teneur ontologique, de manière à rendre compte du processus même de l’individuation. Mais cela signifie alors, d’une part, que la relation, qui a « rang d’être », excède ou déborde toujours ce qu’elle relie, qu’elle ne se réduit jamais à une socialité interindividuelle et qu’on tente de la penser aussi loin que possible dans sa primauté ontologique : « la relation ne jaillit pas entre deux termes qui seraient déjà des individus », mais elle est « la résonance interne d’un système d’individuation » (Simondon, 2005, p. 29) [25] . Cela signifie d’autre part que le champ préindividuel, dans lequel les processus d’individuation doivent être inscrits pour être pensés comme processus et comme se développant en conservant toujours cette dimension préindividuelle préalable à leurs mouvements de différenciation, se conçoit comme potentiellement métastable, c’est-à-dire qu’il faut penser son équilibre comme pouvant être rompu par une modification interne au système, même minime. Cette non-stabilité du champ préindividuel est inhérente à la possibilité d’une prise de forme par différenciation ; elle est ainsi la condition même d’une pensée qui ne tombe pas dans le paralogisme consistant à présupposer et même à individuer toujours déjà le principe de ce dont elle cherche la cause. S’il y a devenir, en d’autres mots, c’est dans la seule mesure où il y a des incompatibilités entre des ordres de grandeurs, des réalités dissymétriques.
36De ces opérations ou ces processus émanent des individus et des milieux, des individus associés à des milieux (l’individu étant la « réalité d’une relation métastable ») qui sont réels et aussi réels les uns que les autres. L’individu comme relation, comme relatif à un milieu est réel, c’est-à-dire que le relatif est réel, il est le réel même. La relation, et l’individu comme relations, ne sont donc nullement, dans une perspective qu’on pourrait qualifier de subjectiviste, l’expression d’une mesure à laquelle ils seraient donc relatifs au point de perdre leur réalité : ils sont la réalité du devenir, au même titre que le milieu associé à un individu est tout sauf réduit à la mesure, c’est-à-dire à la probabilité de l’apparition de celui-ci [26] .
37Peut-on évaluer la nouveauté du gouvernement algorithmique, dans sa tentative à gouverner depuis les relations telle que nous l’avons décrite, à partir des exigences de la pensée simondonienne ? Non pas qu’il s’agirait de se demander si la réalité statistique contemporaine est plus simondonienne que d’autres formes de réalité, ce serait absurde, mais plutôt de mettre en relief et mesurer ses éventuelles nouveautés, et plus principalement le fait qu’elle donnerait la possibilité d’appréhender l’individu dans et même depuis ses relations, à la lueur des exigences extrêmement fortes émises par Simondon pour fonder une ontologie de la relation.
38Paradoxalement, en probabilisant la totalité de la réalité (qui semble devenir comme telle le support de l’action statistique) et en paraissant désubjectiver cette perspective probabilitaire (laquelle ne s’embarrasse plus d’hypothèse préalable), bref, en se donnant ainsi la possibilité de gouverner les comportements sans s’occuper directement des individus pour se contenter de gouverner à partir d’une expression statistique de la réalité qui parviendrait à tenir lieu de réalité (la perspective d’un comportementalisme numérique), le gouvernement algorithmique continue d’absolutiser l’individu (même s’il est abordé « en creux », comme ce que les relations permettent d’éviter) et en même temps le déréalise au sens où il n’est plus que relatif à des suites de mesures qui elles-mêmes font office de réalité et donc sans pour autant qu’apparaisse le caractère subjectif de ces mesures. Les relations sur lesquelles se déploie le gouvernement algorithmique sont des mesures qui, de par leur capacité même à apparaître comme l’expression non médiée et non subjective de la réalité, c’est-à-dire de par leur apparente objectivité, rendent d’autant plus relatif – et moins réel – tout ce qui advient en fonction d’elles et même par elles : ce qui advient n’est que relatif à une suite de mesures faisant office de réalité. En d’autres mots, les relations et leurs mesures, de par leur capacité à apparaître comme déliées de toute subjectivité, rendent aussi bien le réel que l’individu lui-même relatifs. Mais ceci, considéré à la lueur de la pensée simondonienne, apparaît comme le fruit d’une inversion : si auparavant, selon la métaphysique de la substance et de l’individu, toute saisie ou toute mesure du milieu d’un individu apparaissaient toujours comme insuffisantes parce que trop subjectives, empêchant de la sorte d’atteindre la réalité de l’individu dans son individuation, cette insuffisance (avec la différence ontologique qu’elle révélait entre l’individu et son milieu) serait désormais résolue en rendant l’individu lui-même entièrement relatif à des mesures considérées elles-mêmes comme émancipées de toute subjectivité, quand bien même elles ne sont que des mesures. On pourrait même aller jusqu’à dire, en profitant toujours de cette confrontation d’une pratique de gouvernement à la pensée simondonienne, que cette pratique, en se concentrant sur les relations, réussit à les « monadologiser », à les transformer en états, voire en statuts, comme si les relations étaient elles-mêmes des individus, c’est-à-dire leur fait perdre ce qu’il s’agissait de penser avec Simondon, à savoir le devenir à l’œuvre dans une réalité métastable.
39C’est ce devenir monade de la relation que nous constatons en considérant que les données du big data ne subsistent que comme des suites de relations qui dédoublent le réel, que les savoirs générés sur cette base consistent à relier des relations mais sans supposer aucune hypothèse sur le réel lui-même, et que les actions normatives qui en découlent, en agissant sur les relations après les avoir référées à des relations de relations, excluent précisément la possibilité d’une réalité métastable au sein de laquelle s’inscrirait un devenir individu. Ce que la lecture de Simondon nous proposait, c’était de cesser de penser le devenir à partir de l’être individuel constitué et donné dans la mesure où cela signifiait que nous faisions abstraction de l’expérience même de l’individuation telle qu’elle se fait. Mais ce dont il s’agissait ainsi de ne plus faire abstraction (pour ne plus présupposer l’individu à son devenir), c’était précisément du fait que « le possible ne contient pas déjà l’actuel », et donc que « l’individu qui en surgit diffère du possible qui a suscité son individuation » (Debaise, 2004, p. 20). Le raté ou la déviation, dont nous disions par ailleurs craindre l’expulsion dans une réalité augmentée au possible, dans une réalité semblant inclure le possible, et dont nous considérions qu’ils étaient aussi inhérents à l’expression de constructions, de projets, d’hypothèses, apparaissent alors précisément comme ce à partir de quoi seulement il y a une relation, entendue comme inassignable à ce qu’elle relie, c’est-à-dire en ce qu’elle relie précisément des réalités dissymétriques et partiellement incompatibles ou disparates à partir desquelles émergeront des réalités ou des significations nouvelles.
40« Ce qui définit essentiellement un système métastable, c’est l’existence d’une “disparation”, au moins de deux ordres de grandeur, de deux échelles de réalité disparates, entre lesquels il n’y a pas encore de communication interactive », écrivait Deleuze (2002), lecteur de Simondon. Or cet évitement du raté ou de la déviation opère comme négation de cette « disparation ». La gouvernementalité algorithmique présente une forme de totalisation, de clôture du « réel » statistique sur lui-même, de réduction de la puissance au probable, d’indistinction entre les plans d’immanence (ou de consistance) et d’organisation (ou de transcendance), et constitue la représentation numérique du monde en sphère immunitaire d’une actualité pure (Lagrandé, 2011), pré-emptivement expurgée de toute forme de puissance d’advenir, de toute dimension « autre », de toute virtualité (Rouvroy, 2011). Cette « mise en échec de l’échec » de la modélisation numérique des possibles – par la préemption des possibles ou par l’enregistrement et l’enrôlement automatique de toute « irrégularité » dans les processus d’affinement des « modèles », « patterns » ou profils (dans le cas des systèmes algorithmiques apprenants) – ôte à ce qui pourrait surgir du monde dans sa dissymétrie par rapport à la réalité (ici, ce qui en tient lieu étant le corps statistique), sa puissance d’interruption, de mise en crise [27] .
41Rappelons que le statut de l’approche que Deleuze et Guattari ont appelé schizo-analyse, micro-analyse, rhizomatique, cartographie, n’était pas tant descriptif que « stratégique ». Règles pour l’élaboration d’hypertextes ou nomadologie, les concepts de rhizome et d’immanence étaient des concepts polémiques (Marchal, 2006), porteurs d’une pensée stratégique, visant à structurer le social « autrement », à résister à un modèle hiérarchique. Se donnant pour espace une topologique horizontale de pure surface, dispensant de toute profondeur, de toute verticalité, de toute structure hiérarchisée, de tout projet, et de toute projection [28] , la gouvernementalité algorithmique, tout comme la stratégie rhizomatique, ne s’intéressent ni au sujet, ni aux individus. Seules comptent les relations entre les données, qui ne sont que des fragments infra-individuels, miroitements partiels et impersonnels d’existences quotidiennes que le datamining permet de corréler à un niveau supra-individuel, mais qui ne dessine aucun dépassement de l’individu, aucun peuple donc. À l’ère des Big Data et de la gouvernementalité algorithmique, la métaphore du rhizome semble avoir acquis un statut proprement descriptif ou diagnostique : nous sommes aujourd’hui confrontés à l’actualisation « matérielle », pourrait-on dire, du rhizome. Le métabolisme du « corps statistique » – auquel s’intéresse la gouvernementalité algorithmique, ce corps statistique incommensurable aux corps vivants, socialement et physiquement éprouvés, consistants, au-delà de la seule agglomération d’éléments, d’une consistance qui signifie à la fois que ce corps tient ensemble et qu’il est susceptible d’événement (Rouvroy et Berns, 2009, 2010) – rappelle singulièrement les caractéristiques ou principes rhizomatiques énoncés par Gilles Deleuze et Félix Guattari. Cette « incarnation » du concept rhizomatique est-elle propice à des formes d’individuation émancipées ? Trois inquiétudes nous hantent particulièrement, à cet égard.
42Premièrement, qu’en est-il d’une relationalité qui ne serait plus « physiquement habitée » par aucune altérité ? Dans la gouvernementalité algorithmique, chaque sujet est lui-même une multitude, mais il est multiple sans altérité, fragmenté en quantité de profils qui tous, se rapportent à « lui-même », à ses propensions, ses désirs présumés, ses opportunités et ses risques. Une relation – fût-elle une scène vide de sujets – ne doit-elle pas toujours être « peuplée », fût-ce par un « peuple manquant » (évoqué par Deleuze (1987, 1990)), un peuple en projet ? La « relation » n’implique-t-elle pas, au minimum, une collectivité de plus d’un en ce qu’elle est la condition d’une dissymétrie ?
43Deuxièmement, qu’en est-il du caractère émancipateur d’une perspective transindividuelle ou rhizomatique lorsque les désirs qui s’y meuvent nous précèdent ? Cette primauté chronologique de l’offre personnalisée en fonction de propensions inexprimées par le sujet ne vient-elle pas toujours déjà déterminer et stabiliser les processus d’individuation dès le stade préindividuel ? Ces nouveaux usages de la statistique que sont le datamining et le profilage ne nous réduisent-il pas à l’impuissance face aux normes immanentes produits de la gouvernementalité algorithmique ?
44Troisièmement, qu’en est-il du caractère émancipateur d’une perspective transindividuelle ou rhizomatique lorsque la relation n’est plus portée par aucun devenir spécifique (devenir sujet, devenir peuple, etc.), c’est-à-dire lorsqu’elle ne peut plus rien relater, puisque, précisément, la cible, au sens de ce que s’attache à exclure cette nouvelle manière de gouverner par les algorithmes, c’est « ce qui pourrait advenir » et que l’on n’aurait pas prévu parce que fruit de disparations, c’est-à-dire la part d’incertitude, de virtualité, de potentialité radicale qui fait des êtres humains des processus libres de se projeter, de se relater, de devenir des sujets, de s’individuer suivant des trajectoires relativement et relationnellement ouvertes ? On pourrait dire que, oui, la perspective est « émancipatrice » en ce sens qu’elle fait table rase des anciennes hiérarchies (au sens le plus large… l’« homme normal » ou l’« homme moyen » occupant justement une place dans cette hiérarchie) mais elle n’est émancipatrice dans le cadre d’aucun devenir, d’aucun projet, d’aucun objectif. Il y a donc bel et bien une forme de « libération » mais qui n’est pas de la liberté au sens « fort ». Le régime de vérité numérique (ou le comportementalisme numérique) ne menace-t-il pas aujourd’hui de saper les bases mêmes de l’émancipation en évacuant les notions de critique et de projet (Rouvroy, 2013), voire de commun ?
45Sans parvenir encore à résoudre ces questions, il s’agissait pour nous de montrer que, plutôt que d’en revenir à des approches personnologiques (dont l’individualisme possessif des régimes juridiques de protection des données est tout à fait exemplaire), qui seraient aussi inefficaces que mal fondées, l’enjeu fondamental – ce qu’il y aurait à sauver comme ressource antécédente à tout « sujet », à toute individuation et comme constitutive de cette dernière – est « le commun », entendu ici comme cet « entre », ce lieu de com-parution dans lequel les êtres sont adressés et se relatent les uns aux autres dans toutes leurs dissymétries, leurs « disparations ». Nous avons voulu montrer aussi que l’existence de ce « commun » est donc tributaire non pas d’une homogénéisation, d’une clôture du réel sur lui-même, mais au contraire, d’une hétérogénéité des ordres de grandeur, d’une multiplicité des régimes d’existence, bref d’échelles de réalité disparates. Autrement dit, le commun nécessite et présuppose de la non-coïncidence car c’est depuis celle-ci que des processus d’individuation se produisent dès lors que c’est elle qui nous oblige à nous adresser les uns aux autres. A contrario, le gouvernement des relations, en reposant sur l’évacuation de toute forme de disparité, « monadologise » les relations, au point que celles-ci ne relatent plus rien et n’expriment plus aucun commun.
Notes
- [1]Rappelons que la théorie de l’homme moyen développée par Quételet, est une théorie de « physique sociale », « normative » autant que « descriptive » : « un individu qui résumerait en lui-même, à une époque donnée, toutes les qualités de l’homme moyen, représenterait à la fois tout ce qu’il y a de grand, de beau et de bien », écrivait Quételet, mais, ajoutait-il, « une pareille identité ne peut guère se réaliser, et il n’est en général donné aux hommes de ressembler à ce type de perfection, que par un nombre de côtés plus ou moins grand » (Quételet, 1836, pp. 289-290.) Il va de soi que l’homme moyen, étalon et idéal, est différent des individus, et ne représente aucun d’eux, dans une perspective qui peut sembler radicalement antinominaliste.
- [2]Voir à cet égard la présentation des « Big Data in Action » par IBM : http://www-01.ibm.com/software/data/bigdata/industry.html.
- [3]Le « smarter marketing », ou marketing individualisé grâce au profilage algorithmique des consommateurs, se présente aujourd’hui comme une révolution transformant le marketing et la publicité en « services » dont la plus-value serait équitablement répartie entre les entreprises (meilleures performances de vente) et les consommateurs (les produits leur sont proposés en fonction de leurs profils individuels).
- [4]Les normes immanentes sont celles qui ne s’imposent pas de l’extérieur, mais surgissent spontanément, pourrait-on dire, de la vie elle-même, du monde lui-même, de façon indépendante de toute qualification, de toute évaluation et de toute délibération.
- [5]Le datamining, articulé à des finalités de profilage, reconstruit, suivant une logique de corrélation, les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune « norme » générale, mais plutôt à un système de rapports entre diverses mesures, irréductibles à aucune « moyenne ». Sur la distinction entre modèles de corrélation et de régression, voir Desrosières (1988).
- [6]Contrairement à ce que les métaphores organiques utilisées notamment par IBM pour les promouvoir en tant que prochaines étapes « naturelles » dans le développement des technologies de l’information, de la communication et de la réseautique, et en tant qu’éléments quasi naturels de l’évolution de l’espèce humaine elle-même, tendent à laisser entendre, nous avons montré les composantes idéologiques accompagnant l’émergence de l’informatique ubiquitaire, de l’intelligence ambiante ou de l’autonomic computing. Même dès lors que les machines deviennent de plus en plus « autonomes » et « intelligentes », elles restent bien sûr dépendantes de leur design initial, des intentions, scripts ou scenarii en fonction desquels elles ont été imaginées. Elles sont, dès leur conception (et quelles que soient les formes qu’elles prennent ensuite), porteuses des visions du monde, attentes et projections conscientes ou inconscientes de leurs concepteurs (Rouvroy, 2011).
- [7]« Gilbert Simondon montrait […] que l’individuation suppose d’abord un état métastable, c’est-à-dire l’existence d’une “disparation”, comme au moins deux ordres de grandeur ou deux échelles de réalité hétérogènes, entre lesquels des potentiels se répartissent. Cet état pré-individuel ne manque pourtant pas de singularités : les points remarquables ou singuliers sont définis par l’existence et la répartition des potentiels. Apparaît ainsi un champ “problématique” objectif, déterminé par la distance entre ordres hétérogènes. L’individuation surgit comme l’acte de solution d’un tel problème, ou, ce qui revient au même, comme l’actualisation du potentiel et la mise en communication des disparates » (Deleuze, 1968, p. 317).
- [8]On peut citer ici C. Anderson, rédacteur en chef de Wired, dans L’âge des Petabits : « C’est un monde dans lequel des quantités massives de données et les mathématiques appliquées remplacent tous les autres outils qui pourraient être utilisés. Exit toutes les théories sur les comportements humains, de la linguistique à la sociologie. Oubliez la taxinomie, l’ontologie, et la psychologie. Qui peut savoir pourquoi les gens font ce qu’ils font ? Le fait est qu’ils le font, et que nous pouvons le tracer et mesurer avec une fidélité sans précédent. Si l’on a assez de données, les chiffres parlent d’eux-mêmes » (cité dans Cardon, 2012).
- [9]Notons que le régime juridique européen de protection des données à caractère personnel protège explicitement les individus contre les décisions qui seraient prises à leur égard sur le seul fondement d’un traitement automatisé de données (voir l’article 15 de la directive 95/46/CE). Mais les garanties offertes par la directive européenne ne s’appliquent qu’à condition que les traitements automatisés concernent des données à caractère personnel, c’est-à-dire des données se rapportant à des personnes identifiées ou identifiables. Or le profilage algorithmique peut très bien « fonctionner » avec des données anonymes.
- [10]La surenchère de prétention à l’objectivité est précisément et très concrètement l’oubli du choix politique : ainsi, l’idéal devenu possible d’une tarification exacte, adaptée en temps réel, s’adaptant sans cesse aux risques effectivement encourus, que ce soit dans le monde de l’assurance ou dans celui du transport, doit être pensé aussi comme une pure démutualisation des risques qui anéantit paradoxalement l’idée même de l’assurance ou de la mission de service public.
- [11]Nous devrions ici questionner la nature même de cette efficacité de la norme qui apparaît comme toujours plus solipsiste au sens où ce serait la réussite de la normativité elle-même qui est seulement en jeu (Berns, 2011). Ainsi, à titre d’exemple parmi bien d’autres, l’idéal encore très théorique sinon sur un plan politique d’une « evidence based medecine », avec l’appui statistique qu’elle réclame, ne permet plus d’imaginer non seulement le choix du patient, pourtant pris en considération depuis ses caractéristiques les plus spécifiques, mais même l’évolution scientifique.
- [12]Voir entre autres Berns (2009), Desrosières (2000, 2008, 2009), Ewald (1986), Hacking (2006).
- [13]Aussi bien que de sa forme disciplinaire, pour reprendre les modélisations foucaldiennes du pouvoir. De ce point de vue, nous nous situerions ici dans la troisième modélisation du pouvoir analysée par Foucault, celle qui analyse les dispositifs de sécurité dans une perspective essentiellement régulatoire. L’évolution ici décrite consisterait à établir dans ce troisième modèle du pouvoir – le modèle des dispositifs de sécurité – de nouvelles ruptures. Le principe des dispositifs de sécurité, « c’est de ne prendre ni le point de vue de ce qui est empêché, ni le point de vue de ce qui est obligatoire, mais de prendre suffisamment de recul pour que l’on puisse saisir le point où les choses vont se produire, qu’elles soient souhaitables ou qu’elles ne le soient pas. […] La loi interdit, la discipline prescrit et la sécurité, sans interdire ou sans prescrire […] a essentiellement pour fonction de répondre à une réalité de manière à ce que cette réponse annule cette réalité à laquelle elle répond – l’annule, ou la limite ou la freine ou la règle. C’est cette régulation dans l’élément de la réalité qui est […] fondamental dans les dispositifs de sécurité » (Foucault, 2004, pp. 48-49).
- [14]Au contraire, même, que ce qui « coule » soit a-signifiant est précisément ce qui permet « l’asservissement machinique » : « Il y a un inconscient machinique moléculaire, qui relève de systèmes de codages, de systèmes automatiques, de systèmes de moulages, de systèmes d’emprunts, etc., qui ne mettent en jeu ni des chaînes sémiotiques, ni des phénomènes de subjectivation de rapports sujet/objet, ni des phénomènes de conscience ; qui mettent en jeu ce que j’appelle des phénomènes d’asservissement machinique, où des fonctions, des organes entrent directement en interaction avec des systèmes machiniques, des systèmes sémiotiques. L’exemple que je prends toujours, est celui de la conduite automobile en état de rêverie. Tout fonctionne en dehors de la conscience, tous les réflexes, on pense à autre chose, et même, à la limite, on dort ; et puis, il y a un signal sémiotique de réveil qui, d’un seul coup, fait reprendre conscience, et réinjecte des chaînes signifiantes. Il y a, donc, un inconscient d’asservissement machinique » (Guattari, 1980).
- [15]Notre analyse réclamerait d’être plus nuancée quant aux évolutions et ruptures à constater sur le plan d’une histoire longue des pratiques normatives. Le gouvernement algorithmique pourrait paraître renvoyer à certains mécanismes présents avant la généralisation de l’idée de la norme juridico-discursive, laquelle apparaîtrait alors bien plus comme l’exception que comme la règle dans cette histoire longue : si on questionne le fonctionnement normatif de la gouvernementalité algorithmique, ce qui en assure la légitimité, ce qui assied la puissance, on peut en effet avoir l’impression qu’il y a beaucoup plus de similitudes entre le sujet pécheur qui se confesse et la possibilité du sujet algorithmique contemporain, qu’entre ce dernier et le « sujet de droit », construit par la loi, dans la mesure où le sujet algorithmique et le sujet chrétien apparaîtraient l’un et l’autre comme le fruit d’un dialogue avec soi aidé par une médiation politique, spirituelle ou technique. C’est par exemple ce qu’on pourrait constater en se penchant sur des expériences, encore rares, comme le « Quantified Self » (voir l’article d’A.-S Pharabod, V. Nikolski et F. Granjon dans ce numéro). Indépendamment de la portée, de l’intérêt et de la représentativité réels de ce type d’expérience, il nous semble cependant utile de noter que la production et l’affinement du sujet « sain » qu’elle laisse entrevoir, si elle est certes aidée par la médiation technique ou statistique, a) présuppose un sujet qui s’affine, plus qu’elle ne témoigne d’un sujet qui se produit, b) repose sur un refus de l’usage général de la médiation technique au profit d’une réappropriation qui se prétend strictement individuelle, c’est-à-dire que la réflexivité dont elle témoigne, avec la conscience de la norme par le sujet en jeu, nous semble précisément étrangère au non-rapport que les individus peuvent à ce stade nouer à leur double statistique.
- [16]À ce point dépourvue de projets, la gouvernementalité algorithmique présente peut-être une version radicale du gouvernement par l’objectif, au sens où Laurent Thévenot (2012) l’entend : « Dans le gouvernement par l’objectif, l’autorité légitime est certes déplacée et distribuée dans des choses, rendant difficile son appréhension et sa mise en question puisqu’elle s’impose au nom du réalisme et perd sa visibilité politique. »
- [17]À cet égard, nous nous permettons de renvoyer le lecteur à Rouvroy (2011).
- [18]Comme nous l’avons montré ailleurs, notamment dans Rouvroy (2012).
- [19]Au même titre que d’autres pratiques du gouvernement contemporain, comme le rapport ou l’évaluation. Voir Berns (2011, 2012).
- [20]Le mot « relation », entendu ici dans son sens le plus brut, le moins habité, par lequel nous qualifions la donnée, nous sert seulement à attester d’une opération qui lie a et b en étant à même d’ignorer ce qui est derrière les termes ainsi liés. Comme nous le montrerons, toute la force du gouvernement algorithmique réside in fine dans sa capacité à « monadologiser » cette relation, au point que cette relation ne parvient précisément pas à saisir le devenir qui serait propre à la relationalité.
- [21]L’objectif de la description rhizomatique de la connaissance n’était pas tant descriptif que « stratégique », légitimée par son utilité pour l’exercice d’une résistance contre un modèle hiérarchique, traduction épistémologique d’une structure sociale oppressive.
- [22]Le lecteur comprendra que la cible de notre critique n’est pas la théorie simondonnienne de l’individuation transindividuelle, ni la perspective rhizomatique deleuzo-guattarienne, que la gouvernementalité algorithmique n’incarne qu’en apparence. La cible de notre critique est, justement, l’apparence de compatibilité de la gouvernementalité algorithmique avec ces théories et perspectives émancipatrices alors même que la gouvernementalité algorithmique tendrait plutôt à empêcher aussi bien les processus d’individuation transindividuels que l’ouverture aux significations nouvelles portées par les relations entre entités « disparates ».
- [23]L’objectif de la description rhizomatique de la connaissance n’était pas tant descriptif que « stratégique », légitimée par son utilité pour l’exercice d’une résistance contre un modèle hiérarchique, traduction épistémologique d’une structure sociale oppressive.
- [24]Même si d’autres tentatives peuvent être cherchées, par exemple, dès les pensées de Spinoza ou de Marx, à la suite, pour le premier de V. Morfino (2010) et pour le second d’E. Balibar (1993).
- [25]La précieuse analyse de M. Combes (1999) nous a fortement aidés.
- [26]Simondon consacre de nombreuses pages au danger de la perte de réalité propre à une conception subjectiviste et probabilitaire de la physique contemporaine. Voir M. Combes (1999, p. 39).
- [27]À nouveau, il faut ici pointer le fait que la crise, ce moment qui appelle à décider dans l’incertitude, est précisément le moment du politique : « L‘autorité légitime a été déplacée et distribuée dans des choses, rendant difficile son appréhension et sa mise en question puisqu’elle s’impose au nom du réalisme et perd sa visibilité politique. La critique est paralysée parce qu’elle paraît devancée et rendue caduque. La référence à l’objectivité, souvent accompagnée de l’invocation de la transparence de l’information, ne rejoint-on pas une exigence majeure de la délibération démocratique ? » (Thévenot, 2012).
- [28]« La topologie du réseau est pure surface qu’il convient de distinguer du plan projectif que Lacan a utilisé pour caractériser la topologie du sujet. Il s’agit bien sûr d‘un plan, d’une surface (exit la “psychologie des profondeurs”), mais il est l’effet d‘une projection et cela le différencie de la “pure” surface du réseau qui n’implique aucune projection » (Marchal, 2006).
- Mis en ligne sur Cairn.info le 02/05/2013
- https://doi.org/10.3917/res.177.0163
Nenhum comentário:
Postar um comentário