mardi 9 juin 2020

Séance du 09/06/2020 CALM (Cours A La Maison) TL2: 1h30

Bonjour à toutes et à tous,
C'est la dernière ligne droite et elle descend sacrément! YAOUOUHHHH!!!!!




C’est bien d’un écrasement du sujet dont il s’agit ici de mesurer l’efficience et les conséquences. La notion de « pharmakon », c’est-à-dire d’artefact consistant directement dans un remède et un poison (poison dont le remède est le poison lui-même mais autrement administré) est intéressant à plaquer sur les propos d’Antoinette Rouvroy parce que les Big Data sont le poison d’instruments numériques qui ne sont pas en eux-mêmes toxiques et même la pratique statistique ne doit pas être considérée comme nuisible ou dangereuse en elle-même. Mais quelle est la différence entre la statistique traditionnelle et la statistique des data mining (extraction de connaissances à partir de données)?
- D’abord la finalité: les statistiques traditionnelles visent à objectiver des hypothèses à partir de données alors que dans les big data, il n’y a pas d’hypothèses, tout est récolté et on fait tourner des algorithmes sur cette masse et on fait surgir des données des hypothèses. C’est une inversion complète de la pratique scientifique telle que Kant la définissait dans la préface à la seconde édition de la critique de la raison pure. Ce n’est pas la pensée qui élabore d’abord des hypothèses que les data infirmeraient ou confirmeraient ensuite. On part des données pour élaborer à partir d’elles des hypothèses.
         

Cela signifie en droit qu’aucun principe de droit dans la sélection ne peut prévaloir. Tout est récolté indifféremment. Il s’agit de faire surgir les catégories des données recueillies et non d’aborder les données à partir des catégories or ce processus coupe l’herbe sous le pied de la critique, puisque la critique selon Foucault s’adresse à la manière dont se forme les catégories à partir desquelles on perçoit le monde. Ici cette critique, au sens philosophique du terme n’est plus possible. La production automatique des catégories rend la critique inopérante et en même temps comme ces catégories s’adapte en temps réel aux données, sont finalement données en même temps qu’elles. Cela signifie que la gouvernementalité algorithmique effectue une espèce de critique toujours en marche « déjà ». On a affaire à un métabolisme inhérent à la vie même, à une normativité immanente. Les normes émanent de la vie et du coup ne sont plus contestables. En fait on pourrait dire que « c’est comme ça »: comme les catégories que l’on pourrait critiquer sont construites en même temps que les données que l’on est sensé analyser à partir de ces catégories.
                  Le benchmarking (analyse comparative de la concurrence sur un marché) a pour finalité de rendre comparable des travaux, des métiers, des pratiques pourtant incommensurables en elles-mêmes (performances de deux chercheurs dans des domaines différents). On fait donc des conventions de quantification qui vont permettre d’évaluer deux performances de nature distincte comparables. L’objectif de cette démarche est de pouvoir en discuter en posant des « conventions ». Ça c’est de la statistique traditionnelle mais pour les big data, il n’y a aucune convention. Cela veut dire que l’on ne cherche pas du tout à mettre sur un plan de comparaison possible deux démarches distinctes. Les évènements du monde sont imprévisibles et incommensurables. Les normes viennent purement et simplement des données qu’elles sont pourtant censées « subsumer », c’est-à-dire ordonner. En d’autres termes dans les big data les catégories au travers desquelles on est censé classer les données se constituent en temps réel en même temps que ces données elles-mêmes.
   

Ensuite ce qui distingue les statistiques traditionnelles des statistiques du data mining c’est la notion de « moyenne »  qui disparaît avec les big data. Antoinette Rouvroy utilise la référence à un écrivain: Robert Musil, et à son livre: « l’homme sans qualités » pour pointer la notion de moyenne et de sélectivité. Dans les statistiques classiques, il y a un principe de sélection (alors qu’il n’y en a pas dans les big data qui recueille tout indifféremment) et il y a aussi un principe de resserrement des données des chiffres autour d’une moyenne. Les écarts par rapport à la moyenne n’entrent pas en ligne de compte. C’est l’incitation que l’on entend parfois qui nous conseille de ne pas vraiment prendre en compte les statistiques puisque elle valent « pour la moyenne », « globalement », mais jamais précisément, un peu comme si elles ne s’appliquaient pas aux cas particuliers. Dans les big data, il n’y a plus vraiment de moyenne, d’enseignements généraux puisque les données grossissent exponentiellement constamment de microseconde en microseconde. La valeur moyenne n’a plus de raison d’être. Les modèles statistiques valent donc pour les cas les plus singuliers, ce qui rend possible de faire de la personnalisation à l’échelle industrielle. Ce point est vraiment fondamental. Les big data s’adaptent à chaque profil mais en même temps ce n’est qu’un profil. On crée des profils de consommateurs qui peuvent correspondre à des cas précis mais en même temps au gré d’une sérialité de production en masse. Les big data permettent donc de se dégager de l’homme moyen, de l’homme normal. Les big data cassent cette notion de normalité, comme si on pouvait posséder des données objectives.  
 Les catégorisations algorithmiques deviennent donc indiscutables puisque elles cassent cette notion de norme à partir de laquelle on aurait pu les contester. Or Antoinette Rouvroy adresse ici une première critique très pertinente à cette procédure, à savoir que c’est justement parce qu’on ne peut pas les contester qu’elles ne sont pas légitimes. C’est le critère de la discutabilité, assez proche de celui de la falsifiabilité en sciences (Karl Popper). Les Big Data s’imposent comme réelles en dehors de toute remise en question possible.
  


            La question se pose donc maintenant de savoir comment ces big data constituent cette gouvernementalité algorithmique, comment jouent-elles sur l’avenir? Comment modélisent-les des comportements dans une perspective préventive aussi bien en justice que pour les assurances, etc. Est-ce que ça gouverne vraiment? L’attention que l’on pourrait porter à la dangerosité par rapport aux faits n’est pas nouvelle en soi. Antoinette Rouvroy évoque ici cette attention portée par la justice  à la menace de certains individus présumés dangereux avant même qu’ils ne passent à l’acte. Mais il y a une différence entre ce souci qui a vu le jour dés le 19e siècle et des lois nouvelles nées du terrorisme portant sur des individus présentant le risque d’être radicalisés. La différence est celle qui sépare la prévision de la préemption. Il ne s’agit pas de réformer l’individu dangereux mais de devancer (préempter, c’est « agir avant » alors que prévoir c’est  seulement penser quelque chose avant que cela se produise).
         

Par conséquent, nous ne sommes pas très loin de Minority Report. Les Big Data légitiment que l’on agisse préalablement à une action qui n’a pas encore été effectuée. On considère comme déjà advenue une action qui dans la réalité n’est encore que possible. Prenons l’exemple d’un organisme d’ assurance sur la vie qui va avoir accès aux réseaux sociaux et qui constate que telle ou telle assurée est victime de violence conjugale. Il peut parfaitement considérer que le risque de mort anticipé est réel. Il n’y a plus de calcul de risque. On est passé d’un logique actuarielle à une logique post-actuarielle. On considère cette personne comme déjà morte quasiment.  On peut ainsi faire monter les primes indifféremment. Cet espace vide laissé par la norme ouvre ainsi la place à l’appétit de toutes les personnes qui peuvent tirer un parti financier de l’exploitation des données. Toute demande du client doit être satisfaite et tout bénéfice moral ou pas doit être enregistré. On est dans une culture de la pure opportunité.
         

Comment est-ce que ça gouverne, la gouvernementalité algorithmique? Pour Foucault, ce qui gouverne c’est ce qui structure par avance le champ d’action d’autrui. Donc la publicité, l’architecture, la politique dans une certaine mesure, les médias pratiquent une certaine gouvernementalité. Mais ce qui est en train de se produire par les Big Data, c’est que ce n’est plus le réel, l’actuel,  ce qui se produit, qui gouverne mais seulement ce qui est possible. Un individu peut être arrêté, interrogé à cause d’une présomption de terrorisme. Une prime peut être augmentée à cause d’une suspicion née de telle ou telle trace recueillie sur le réseau social. C’est la potentialité pure qui gouverne. Ce qui gouverne c’est le virtuel c’est-à-dire personne, autrement dit ce ne sont plus des corps réels, physiques, humains qui gouvernent, mais un corps impalpable, numérique, statistique qui est supra-individuel, composé par une infinité de données qui annule la notion de sujet, d’ipséïté.
        Cette gouvernementalité désubjectivée, impersonnelle nous dirige sans récalcitrance mais elle nous affecte en en ce sens qu’elle travaille l’avenir. Ce qui est visé , attaqué, réduit, c’est notre capacité à ne pas être là où nous  sommes attendus. A partir du moment où la seule possibilité que l’on devienne terroriste suffit à ce que vous soyez considéré comme en étant un, on vous dénie le droit de ne pas être ce qu’il est possible que vous soyez. Ce n’est plus le passage à l’acte qui compte, c’est la possibilité du passage à l’acte qui prime.
        Cette suspicion peut donner lieu à une surveillance, à un contrôle doté d’une certaine puissance d’affectation réelle. Il convient donc de faire une critique de cette gouvernementalité algorithmique. Mais cette critique n’est pas évidente parce que ce mode de gouvernement traverse toutes les catégories de telle sorte que l’on ne peut pas imaginer une action collective contre lui. Il ne stigmatise aucune catégorie en particulier. On ne peut pas la suspecter de racisme ou de sexisme. Peut-être correspond-t-elle finalement à quelque chose que l’on a toujours voulu. On est ramené à un profil mais après tout, comme on fait nécessairement partie de ces profils, on ne peut pas vouloir ne pas être profilé puisque cela reviendrait à ne pas se vouloir soi-même. Cela dit justement il va de soi que ce profil n’est pas moi-même, c’est tout le danger. On adhère à une image de soi qui semble correspondre mais qui en même temps ne peut absolument pas être moi au sens d’ipséïté. C’est la raison pour laquelle il faut critiquer l’idéologie des Big Data. Il y a une prétention à l’exhaustivité contre laquelle il faut lutter. Il est faux de penser que les big data numérisent tout ou que tout soit numérisable. Nos rêves ne le sont pas, nos peines, nos joies ne sont pas numérisables non plus. C’est ce que l’on peut appeler « l’innéfectué ». Tout ce qui disparaît avec ce processus de substitution de la réalité physique au profit des données numériques, c’est l’écart entre le monde et sa représentation, la distinction entre le fait et le droit, c’est la possibilité de se dire que l’objectivité n’est pas la justice. L’assureur qui exclue les clients qui risquent des violences conjugales adopte un point de vue rentable mais absolument abject d’un point de vue éthique, du point de vue de la justice sociale.
         

La question est aussi celle de la production de catégories immanentes  à la collection des données faites par la machine. Cela revient à confier à des machines ce qui relevait avant de la politique au sens pur et noble du terme, « décider ensemble », faire advenir une réalité humaine par la parole et par l’action (Hannah Arendt). On laisse finalement les machines décider des critères de dangerosité, de mérite de désidérabilité des individus. C’est bien l’enjeu de ce qui se passe aujourd’hui.
        La conclusion de cette intervention porte sur le véritable enjeu des Big Data. Elles nous dispensent de décider. Il faut réassurer cette fonction là. Or toute décision implique l’incertitude et la nature non prédictive de l’avenir parce que lorsque l’avenir est programmable, prédictible, il n’y a pas de décision, de « pari ». Une décision suppose une prise de risque. Si l’on ne fait qu’agir en situation de certitude, on ne fait que suivre ce dont on pense (probablement à tort) que cela va nécessairement se produire. Antoinette Rouvroy conclue sur une phrase du philosophe Giorgio Agamben: « ce qui compte c’est de se tenir dans une relation juste par rapport à notre propre ignorance. » Cette justesse est menacée par la prétention à l’objectivité et à l’anticipation du réel par les Big Data.


Récapitulons:    Je souhaiterai d’abord mettre clairement en perspective l’intervention d’Antoinette Rouvroy par rapport à la plupart des notions que nous avons explorées dernièrement depuis le confinement. Elles sont toutes à mettre en rapport avec deux « moments-clé » qui sont très liés: l’avènement du dernier des hommes dont nous parle Nietzsche dans « Ainsi parlait Zarathoustra » et « l’anthropocène » qu’évoque notamment Bernard Stiegler dans le sillage médiatique de Greta Thunberg. Il s’agit dans les deux cas de pointer un danger et éventuellement de déterminer une attitude.
        Gilles Deleuze  avait évoqué la succession de trois types de société: celles que l’on peut dire de souveraineté, celles qu’il qualifie de  « disciplinaires » et enfin celles que l’on peut qualifier « de contrôle ». L’illustration la plus parfaite des sociétés de contrôle est l’appli téléchargeable du covid 19 qui nous avertit si nous sommes en présence d’une personne que l’hôpital a enregistré comme contaminée. Que nous acceptions cette mesure au nom d’un protocole sanitaire certes légitime mais extrêmement invasif et stigmatisant sans réagir pose vraiment problème et atteste de la justesse de la prophétie de Gilles Deleuze.
        C’est à la lumière de ce climat qui nous met directement en prise  avec l’actualité la plus récente ainsi qu’avec de nombreuses références étudiées cette année qu’il faut situer les paroles d’Antoinette Rouvroy.
        Ce qui est extrêmement intéressant ici c’est aussi le fait qu’elle soit juriste de formation. Elle n’est pas philosophe mais le fait que cette question des sociétés de contrôle et de l’influence des Big data sur notre vie la plus quotidienne soit ainsi au croisement de plusieurs disciplines prouve son urgence et sa gravité.
       

Aussi durs que soient certaines régimes de gouvernementalité politique, ils sont identifiables. Il nous est possible de situer leur influence et les dommages qu’ils créent mais la gouvernementalité algorithmique consiste dans un autre type de pouvoir, un pouvoir sans autorité visible, indétectable, et c’est en cela qu’elle requiert de nous une attention, une sensibilité vive, travaillée, alertée. En fait il n’est pas du tout sûr que les personnes qui tirent avantage de cette gouvernementalité algorithmique, et l’on pense évidemment en premier lieu aux PDG des GAFA, aient vraiment conscience de ce qu’implique ce bouleversement dans l’histoire même de l’humanité car c’est bien de cela dont il est question et Madame Rouvroy nous permet de le saisir notamment grâce à cette formulation-choc:  la gouvernementalité algorithmique est celle d’une fiabilité sans vérité, d’une personnalisation sans sujet et d’un pouvoir sans autorité.
- Une fiabilité sans vérité: les données recueillies sont très fiables voire même d’une efficacité sans équivalent, simplement elle ne décrivent pas la relation à un fait mais plutôt à des « informations », à des indications, à des « signaux ». Dire la vérité c’est émettre une proposition qui correspond effectivement à un état de fait. Je dis la vérité quand disant qu’il pleut, il pleut effectivement. Mais ce n’est plus du tout le problème ici. La question n’est pas de connaître les faits, de poser l’équivalence entre une proposition et un fait, mais de collecter des masses incroyables de données que l’on va pouvoir interpréter au gré d’une multitude de questions, avec une fiabilité certaine mais en l’absence de toute relation authentique au vrai.
 

- Une personnalisation sans sujet: les Big Data nous analysent, nous observent, nous devinent avec un degré de prédictibilité impressionnant et inconnu jusqu’alors. Qu’est-ce que cela veut dire? Il ne faut pas craindre d’user ici de formulations apparemment ambiguës (avant de les clarifier): elles savent ce que nous allons décider précisément parce qu’elles ne font aucun cas de notre volonté, de notre libre-arbitre, de notre singularité. Nous ne sommes pas un être unique, nous sommes un profil. Le meilleur exemple ici est celui de Facebook: il nous est demandé de constituer, ou d’aider par nos réponses à leurs questions, à composer notre « profil », c’est-à-dire ce qui, via les algorithmes, va nous trouver des « amis », c’est-à-dire créer des intérêts « communs » et ça va « marcher » pour autant que l’alchimie et l’imprévu des rencontres, des situations, du hasard seront totalement éludés, exclus des échanges. Mais n’est-ce pas précisément ce qui définit en fait le fond de la rencontre? Quelque chose ici entre en jeu qui est de l’ordre d’une rationalité sans humanité, ni sensibilité. L’amitié est, au sens littéral du terme, calculée. La simple idée qu’on puisse considérer une relation comme calculable devrait nous dégoûter d’elle, à tout jamais. De plus, il y a des sentiments qui ne se traduisent jamais par des actes et qui n’en demeurent pas moins des sentiments. C’est ce qu’Antoinette Rouvroy appelle l’ineffectué ou le non effectué. Il y a du non effectué dans toute relation humaine, du non avoué, du non dit, du non-fait mais c’est peut-être aussi dans ce fond complexe et diffus de non effectuation que se tissent des liens subtils. Le problème ici n’est pas tant que cette subtilité échappe aux algorithme mais que la plupart des relations qui se tissent soient justement des relations privées de cette subtilité, peut-être donc finalement des fausses relations: deux profils se parlent, échangent sans jamais vraiment s’intéresser à l’autre en tant que tel.
 

- Un pouvoir sans autorité: c’est l’un des aspects les plus troublants et les plus ravageurs. Les données recueillies sont très, très « parlantes ». Elles peuvent être utilisées efficacement dans une multitude de domaines. Qu’est-ce qu’un pouvoir? Ce qui gouverne par avance le champ d’action d’autrui. On ne peut rien imaginer de plus contraignant que le pouvoir de la gouvernementalité algorithmique parce qu’il s’impose à nous d’une façon toujours première et finalement indétectable. Ce n’est pas quelqu’un, un organisme ou des lois illégitimes qui s’imposent à nous en nous disant: « faites ça! », C’est un processus de captation des données qui anticipe et surtout manipule, intercède sur ce que nous voulons de telle sorte que nous pensons vouloir ce qui en réalité a été calculé, recoupé, proposé. L’acte de volonté et de décision a été court-circuité à la racine. Il existe dans le monde un excellent exemple de cette gouvernementalité là qui finalement nous contraint précisément en jouant de la pseudo liberté de consommer. C’est la Corée. Le pouvoir de la Corée du Nord et autoritaire, dictatorial et les libertés y sont presque explicitement réduites à néant. Mais la Corée du Sud n’est pas moins gangrenée par un autre genre de gouvernementalité que politique, celui d’un hyper libéralisme et d’une logique infernale de sur-consommation, de promotion de modèle de vies totalement artificiels, superficiels et contraignants. Entre l’esprit d’agressivité militaire qu’illustre un défilé de l’armée de Kim Jong-Un et les prestations d’ados anorexiques de la K-pop sud-coréenne il n’est pas forcément évident de promouvoir l’une au détriment de l’autre.
 


            Il est enfin un dernier point sur lequel Antoinette Rouvroy nous invite à réfléchir avec beaucoup de gravité, c’est celui de la disparition du fait au profit de la donnée brute. La violence des attentats terroristes aux EU et en Europe a petit à petit rendu effectives des lois et des décrets dont l’effectivité n’est plus contestée. Ce climat à l’égard duquel nous aurions du faire preuve de plus de vigilance a évolué avec l’utilisation banalisée des Big Data vers des mesures parfaitement illégitimes grâce auquel la présomption de collusion avec des terroristes suffit à justifier une arrestation, une incarcération voire suivant la juridiction de certains pays (US) bien pire que cela. Qu’est- ce que cela veut dire clairement? Que « le passage à l’acte » ne constitue pas dans certaines affaires la condition première et minimale de l’arrestation. Le soupçon fort suffit. C’est finalement exactement comme dans Minorité Report, le film inspiré de l’oeuvre de Philippe K. Dick dans lequel on voit une brigade baptisée « pré-crime" qui grâce à des pré-cognitifs, des personnes dotées d’une vision du futur est capable d’arrêter des supposés criminels juste avant qu’ils passent à l’acte. Mais peut-on condamner quelqu’un pour une intention, aussi forte soit-elle? Comment considérer une personne  comme juridiquement responsable d’un acte qu’elle n’a pas encore commis mais dont on pense qu’elle était à deux doigts de le commettre? Déjà Aux EU, les big Data font jouer les statistiques de prévision des crimes pour placer plus d’agents dans tel quartier que dans tel autre. Cela veut dire que l’on considère l’imprévisibilité comme cela même qu’il s’agit d’éradiquer de la vie humaine. Mais qu’est-ce qu’une vie humaine sans imprévisibilité des actions humaines? Ce n’est ni plus  ni moins qu’une matrice.
 

  
Et pour l'année aussi!
Bonne continuation à vous toutes et à vous tous. Merci pour cette année!


Aucun commentaire:

Enregistrer un commentaire