mercredi 3 juin 2020

Séance du 04/06/2020 CALM (Cours A La Maison) TL2: 2h

Bonjour à toutes et à tous,


C'est l'heure de défendre une cause perdue! Mais, en fait peut-être pas, car....



Hier nous avons terminé sur une classification de tous les différentes sortes de signes à partir de Peirce: l'indice, le symbole, l'icône, le signe lui-même et le signal. 

   
                      Comment situer les données brutes (big Data) dans cette classification des signes? Déjà il faut insister sur le fait que ces données sont produites, ce qui signifies précisément qu’elle les ont pas naturellement données. Elles sont des données numériques, c’est-à-dire que le fait même qu’elles soient « données » suppose un travail préalable par le biais duquel c’est sur une interface numérique qu’elles apparaissent. Elles sont le produit d’un travail d’annihilation de tout ce qui pourrait les rattacher à un contexte de vie singulier. Une donnée n’a aucun sens intelligible en soi. L’intelligence des données va se constituer sur la base d’une absence totale d’intelligibilité humaine. Ces données sont collectées et analysées indépendamment de toute lisibilité humaine. Elles sont sorties de leur contexte.
           Ce point est important, voire fondamental. Nous sommes plutôt portés à intégrer nos achats par exemple, dans des sensibilités préférentielles: j’ai acheté tel DVD parce que le film m’a procuré du réconfort ou m’a fait réfléchir, etc. Cela les Big Data s’en moquent totalement. C’est sur la base de répétition et de recoupements inhumanisés qu’elles vont « collecter », recueillir et recouper des achats. Mais c’est peut-être aussi pour cela qu’en un sens ça va marcher. Ce qui se constitue ici c’est l’efficience d’un « inconscient numérique » totalement distincts et détaché de l’inconscient du désir du sujet lui-même (mais en même temps c’est sur la base de cet inconscient numérique qu’Amazon va lui proposer un autre produit qu’il va acheter. Ici nous apercevons parfaitement tout ce que le petit neveu de Freud, Edward Bernays va faire et détourner des travaux de son grand oncle, à savoir transformer en instrument de marketing des découvertes fondamentales sur la psyché de l’être humain.
          
                  Antoinette Rouvroy fait référence à l’expression utilisée par Gilles Deleuze et Félix Guattari de « décodage ». Nos échanges dans la vie sociale, familiale, intime se font toujours sur la base de code. Nous savons ce que veut dire le fait d’utiliser tel registre de parole, de frapper sur la table, de s’habiller en noir, de porter une cravate ou des hauts talons. Nous ne cessons ainsi d’envoyer aux autres des signes compréhensibles et intentionnels grâce à ces codes. Mais justement les big data prélèvent des données dans codage, sans leur donner un sens, sans chercher le rapport entre ce qui est signifiant et signifié. Les big datant prélèvent ces données comme des « signaux », qui sont quantifiables parce qu’ils n’ont aucune signification. Ici encore, ce point est crucial. C’est justement parce que ces signes sont recueillis en tant que signaux, c’est-à-dire indépendamment de l’intentionnalité humaine qui s’y trouve impliquée ou du soubassement de réalité humaine dont ils font signe qu’ils vont pouvoir donner lieu à une quantification qui finalement ne se soucie en aucune façon des répercussions humaines des recoupements et des suggestions ou des résultats qui seront produits par les algorithmes. Pourquoi ce point est-il aussi fondamental? Parce qu’il explique comment des comportements humains a priori imprévisibles et incalculables vont être quantifiés et finalement rendus contrôlables voire manipulables par ces algorithmes, c’est tout simplement parce que leur intentionnalité et leur réalité humaines ne sera pas prises en compte. Comment pourraient-elles l’être d’ailleurs?
          
          Les données des big data sont donc d’autant plus quantifiables qu’elles sont décontextualisées de toute signification humaine. Elles  sont décodées. C’est ce qui va nourrir une nouvelle forme de gouvernementalité, laquelle est effective en ce moment. Ce n’est pas de la science fiction. Ce mode est opérationnel dans le marketing, dans la finance, dans la gestion des ressources humaines (le personnel des centres d’appel est recruté à partir de facteurs de résistance à l’ennui - Ce sont les algorithmes qui vont ainsi sélectionner parmi les candidatures les profils les plus adéquats mais cela sur la base de critères statistiques plus que rationnels. Ici aussi, cette remarque est essentielle: les algorithmes remarquent dans les comportements des récurrences, des recoupements irrationnels mais efficients/ par exemple le fait que les personnes qui sont inscrites dans deux plate forme de réseaux sociaux sont plus résistantes à l’ennui que celles qui ne s’y inscrivent pas. Que peut-on en déduire? Les big data ne s’en préoccupent pas du tout. Nous sommes dans une logique statisticienne qui vise à l’efficacité et pas du tout dans une logique causale qui vise à comprendre philosophiquement ou sociologiquement les comportements des hommes).
        Il est un terme un peu péjoratif qu’Antoinette Rouvroy n’hésite pas à utiliser au début de son intervention , celui de « l’idéologie » des Big Data, parce que précisément, il n’y a pas d’intentionnalité personnelle de tel ou tel, de tel mouvement politique ou de telle firme commerciale. Ce n’est pas une personne en particulier même s’il est évident que Jeff Bezos, Larry Page, Reed Hastings, Marc Randolph, Mark Zuckerberg, etc, retirent un bénéfice concret et, sur le fond, parfaitement abject de cette nouvelle gouvernementalité, il n’est pas non plus évident qu’il réalise la portée de ce qu’ils utilisent.
                  
                Ce mode d’intelligibilité des comportements humains n’est pas humain, ce qui ne signifie pas du tout qu’il soit malveillant ou porteur d’une intention maléfique mais tout simplement qu’en acceptant de faire nos achats sur Amazon, de regarder des séries sur Netflix, de discuter sur Facebook, nous confions à un mode d’analyse pas humain des données qui sont humaines et que ce mode d’analyse va activer des algorithmes qui suivent une logique statisticienne plutôt qu’une logique causale. Il n’est pas question pour l’homme de comprendre qui il est mais simplement de se confier, de façon un peu suicidaire, comme une ressource à un mode d’exploitation de lui-même qui vise à produire des données et finalement à produire des capitaux mais au final pour qui?  Pour les PDG de ces plates-formes? Oui en un sens mais si nous allons plus loin, ce n’est pas vraiment une réponse satisfaisante car cette logique qui leur apporte des bénéfices n’est pas une logique qu’ils comprennent  en tout cas pas humainement.
               
C’est cela le point fondamental qu’Antoinette Rouvroy nous permet de saisir dans cette intervention: nous sommes un peu dans la situation décrites par Matrix en acceptant d’être la ressource sur laquelle s’active des algorithmes dont la finalité n’est pas de mieux nous comprendre, de mieux saisir la réalité dans laquelle nous consistons mais tout simplement de nous réduire à des données calculables, prévisibles et  ainsi de détruire toute possibilité de résistance par rapport à l’entropie (voir la vidéo de Bernard Stiegler).  Nous sommes compris par ce que nous ne pouvons pas comprendre. C’est un peu le sentiment que l’on ne peut s’empêcher de ressentir parfois devant la montée de l’obésité aux EU ainsi qu’en France: accepter de faire de son corps un territoire exploité par des algorithmes qui vont miser sur nos addictions.
          
           Repensons ici à la phrase de Pascal: « Par l’espace, l’univers me comprend et m’engloutit comme un point, par la pensée, je le comprends. » Ce que nous pouvons ajouter désormais c’est: «  par les big Data, je suis à nouveau englouti comme un point. » Nous sommes perdus dans le monde, nous aspirons à une certaine compréhension de ce monde et de nous-mêmes par la pensée mais nous voilà débordés et réduits à n’être qu’une ressource exploitable par un monde d’intelligibilité algorithmique qui nous trace et nous rend illisible à nous-mêmes, incapable de nous porter à nous-même un minimum d’attention. Ce que nous perdons, c’est la possibilité stoïcienne d’être digne de ce qui nous arrive, de jouir d’une authentique réalisation de l’évènement qui consiste à exister.        
          
Je me permets ici de faire une petite incise au propos d’Antoinette Rouvroy. Ce qu’elle décrit ici sous le terme de gouvernementalité algorithmique est probablement l’évènement le plus grave et le plus aliénant qu’il ait jamais été donné à l’homme de subir, et cela d’autant plus qu’il ne s’en rend pas compte. La plupart des plates-formes utilisant ces algorithmes sont perçues par les consommateurs comme les terres électives et infinies de leur liberté…de consommer. Quiconque entreprendrait du jour au lendemain de détruire ces plates-formes se verrait immédiatement taxé de dictateur totalitaire alors même que nous n’avons jamais été aussi manipulés qu’aujourd’hui, précisément parce que ce n’est pas une dictature politique. Il s’agit même d’une dictature qui vise à détruire la politique et qui parvient déjà à placer à des postes de très haute responsabilité des dirigeants qui ne visent qu’à détruire la politique. Il faut lire et comprendre Hannah Arendt sur ce point.

 C'est tout pour aujourd'hui! A Lundi (il n'y aura pas de séance demain!)




Aucun commentaire:

Enregistrer un commentaire