Note de lecture : La revanche des contextes de Jean-Pierre Olivier de Sardan

Article
Le concept de « normes pratiques » est intéressant pour qui veut déployer un dispositif de contrôle et de sanction.
Interview de Philippe Huneman
Philippe Huneman, philosophe des sciences, est directeur de recherche CNRS à l’Institut d’histoire et de philosophie des sciences et des techniques (Université Paris 1 Panthéon — Sorbonne).
Alors que de nombreux auteurs annoncent l’entrée dans des sociétés de surveillance, il défend plutôt l’idée que nous sommes entrés dans des sociétés du profilage, basées sur la prédiction, l’orientation, et l’optimisation des comportements.
Vous avez publié Les sociétés du profilage. Comment en êtes-vous arrivé à ce sujet, a priori fort éloigné de la biologie ?
En tant que philosophe des sciences, je m’intéresse à de grandes questions comme la causalité, les lois naturelles, la prédiction. Comme beaucoup d’historiens et philosophe des sciences de ma génération, j’ai été très marqué par Michel Foucault. Ma thèse portait sur la structuration de la biologie, un sujet qui occupe une partie de son livre Les Mots et les Choses. J’avais lu, évidemment, Surveiller et punir, un livre majeur, où l’on trouve une idée qui m’intéresse, à savoir que les technologies disponibles conditionnent les possibilités de savoir, de produire du savoir, et de produire des sujets gouvernés par le pouvoir.
Par ailleurs, en tant que philosophe de la biologie et de l’écologie, j’ai été très sensible à la question de la prédiction sur la base de données massives. L’écologie prédictive, en particulier, donne lieu à un débat majeur entre écologues. Nombreux sont ceux qui estiment qu’avec les données innombrables dont nous disposons, nous sommes en capacité de prédire, et il convient impérativement de le faire, même si nous sommes incapables de comprendre.
Un exemple : d’innombrables données sont produites sur la canopée en Guyane. Des caméras dotées de détecteurs de mouvement filment tout. Dès qu’un écologue identifie un organisme à un endroit donné, il entre dans une gigantesque base de données, le GBIF, avec ses photos, le nom de l’organisme, la latitude et la longitude où il l’a trouvé, etc., ce qui établit des co-occurrences espèces-lieux à partir de milliers de données.
Des écologues soutiennent alors l’idée que l’écologie recouvre des systèmes complexes basés sur d’innombrables rétroactions positives et négatives, et d’ici qu’on ait un modèle mathématique des processus causaux en jeu, le réchauffement climatique aura détruit la biodiversité, donc il faut prédire. Et prédire sans comprendre, au sens assez précis d’avoir un modèle causal des systèmes. En écologie, on parle de signaux précoces des transitions catastrophiques, les « Earl warning signals of catastrophic bifurcations ». Il s’agit de modèles basés purement sur des statistiques, ce qui est très différent de modèles qui reposent sur des hypothèses causales, explicatives de ce qui se passe.
Quel est le rapport entre ce débat dans le champ de l’écologie, et le profilage ?
J’y viens. En génétique aussi, nous retrouvons ce même phénomène, avec des données massives qui ouvrent des possibilités nouvelles de prédiction sans théorie causale. Dans le cadre des études de génétique, les Genome Wide Association Studies consistent à mettre en regard des milliers de génomes avec les maladies communes, comme le diabète de type A, l’obésité, la dépression ou les troubles bipolaires. Elles identifient des marqueurs génétiques (de diabète, d’obésité, etc.), nommés Single Nucleotidic Polymorphisms, sauf que l’on n’a aucune idée de ce que font ces marqueurs.
Savoir ce qu’ils font n’est d’ailleurs pas le sujet, ces études servent à établir des catégories, et éventuellement à identifier des gens à risque. Et dans la génétique comportementale, les « scores de risques polygéniques », basés sur l’addition des marqueurs génétiques chez quelqu’un, sont des prédicteurs de maladies mentales ou d’anomalies psychosociales.
Or il se trouve que les prédictions sur la base de données massives, via des techniques algorithmiques, nous avons ça tout le temps, dans notre vie de tous les jours. Il suffit d’écouter Spotify, qui vous propose des chansons. Comme en écologie, comme dans la génétique, on assiste à l’extension de techniques de prédiction sur des données massives. Elles permettent des prédictions fiables, alors même qu’on n’a aucune idée de la causalité. C’est ce qui se passe quand vous recevez des publicités ciblées, basées sur votre profil.
Qu’est-ce qu’un profil ?
Un profil, c’est un ensemble de données à propos d’une personne, constitué à la fois par les données qu’elle aura laissées volontairement, par exemple en postant des photos sur Facebook ou Instagram, et par celles collectées sur elle via ses comportements, à chaque fois que des outils numériques captent ses données, tels les capteurs GPS quand on loue un vélo, les données de navigation sur Internet. Un profil rassemble des milliers de données. Et à partir de là, pour tel individu, on va prédire ce qu’il fait sur la base de sa ressemblance avec un profil collectif, alors même que l’on n’a aucune idée des relations causales entre les éléments.
On dispose d’un profil collectif quand on détient un ensemble de données sur un individu que l’on peut ensuite inclure dans une classe d’individus qui partagent avec lui des propriétés. Pour un individu donné, ce profil collectif permet de prédire les actions qu’il n’a pas encore faites, les émotions qu’il va probablement exprimer ou ressentir. C’est ce qui soutient les algorithmes de recommandation. Si le profil collectif indique que les gens qui achètent trois meubles IKEA par an sont aussi les gens qui vont beaucoup dans les restaurants japonais, ils recevront des publicités de restaurants japonais. Sauf que cette recommandation est faite sans que l’on ait la moindre idée du rapport causal qui est susceptible d’exister entre IKEA et les restaurants japonais.
Aujourd’hui, chacun d’entre nous laisse d’innombrables données. Mais comment prédit-on à partir de ces données, et que prédit-on ?
Oui, nous laissons des données tout le temps, parce qu’il y a des dispositifs de recueil de données absolument partout. Pour en laisser, il suffit de payer avec sa carte bancaire ou de passer un coup de fil, ou de faire une recherche sur Internet. Sans compter le self-tracking, quand avec des montres connectées, on s’échange des informations (combien de pas par jour, combien de lipides lors des derniers repas, combien de pompes ce matin, etc.), permettant à Garmin ou Apple de collecter puis d’échanger des données, parfois avec des laboratoires ou des compagnies pharmaceutiques que ces données vont intéresser.
Ces données sont collectées et revendues, en premier par Google Analytics. Google a surmonté la crise financière de 2008 en monétisant ses données. Ces données sont aussi recueillies par des courtiers en données, les data brokers. L’un des plus importants s’appelle Acxiom.
J’insiste sur ce point : c’est bien parce que les données sont très nombreuses que les prédictions sont fiables. Classiquement, il existe des corrélations entre plein de choses, mais les seules qui nous permettent de prédire de manière fiable sont causales. Le grand tournant, c’est qu’avec une très grande quantité de variables, on minimise la possibilité qu’il existe des variables cachées. Souvent, quand une prédiction tombe à plat, alors que deux variables sont corrélées, c’est qu’il y a une variable cachée.
Par exemple, le revenu des parents et le succès scolaire des enfants sont relativement corrélés, mais si vous prenez les statistiques d’enfants de parents riches, on s’aperçoit que la prédiction ne marche pas vraiment, la réussite scolaire des enfants n’est pas forcément prodigieuse. C’est qu’il existe une deuxième variable importante, le capital symbolique. Quand on la prend en compte, on prédit sinon correctement, du moins mieux.
Avec les données massives, le nombre considérable de variables minimise le risque d’avoir des variables cachées. Acxiom dispose de quelque 3 000 dimensions de données sur les gens : ce qu’ils achètent, ce qu’ils mangent, leur taille, leur poids, où ils habitent, leurs voisins, est-ce qu’ils remboursent un crédit ou pas, de combien, depuis combien d’années, etc. À partir de là, les prédictions deviennent très robustes.
Quel est le sens du mot profilage ?
Il y a deux sens. D’une part, le profileur est un personnage connu des séries télé, il établit le profil du tueur à partir d’un certain nombre d’informations, et va même jusqu’à prédire où l’on pourra le trouver. D’autre part, c’est un terme utilisé dans l’aéronautique pour décrire l’opération par laquelle on donne forme à une pièce d’avion. Ce double sens m’a intéressé. Profiler inclut à la fois la notion de prédiction et la notion de modelage, ici des comportements et des croyances. On peut appeler cela des prédictions hypothétiques : elles consistent à infléchir le comportement des gens en leur présentant la chose à laquelle on sait qu’ils répondront d’une certaine manière.
Si vous voulez, cette notion de profilage fait le lien entre la prédiction de l’algorithme de recommandation, c’est-à-dire la prédiction de ce que vous allez aimer, et le score. Le score est une manière dont on rend opératoires des prédictions qui peuvent être extrêmement complexes. Par exemple, le score de la Caisse d’Allocations familiales (CAF), qui a construit des scores d’allocataires, ce qui a provoqué un scandale quand on l’a su. Le score est une prédiction. Avec un allocataire mal noté, l’agent de la CAF fera attention.
Le score pousse-t-il à avoir un « bon comportement » ?
Un restaurant qui a une mauvaise note attire moins de clients, et c’est pareil pour Uber, Airbnb, Blablacar, voir un médecin, une école privée, etc. Dès que je vais en vacances, l’hôtel ou TripAdivor me dit « N’oubliez pas, mettez une note ». Donc oui, avec le score, on attend des bons comportements, et on sanctionne les mauvais. L’ouvrage est sous-titré, Évaluer, optimiser, prédire. L’évaluation est absolument généralisée. Je note mon chauffeur Uber qui me note. Je pense que ce qui est en jeu, finalement, c’est l’utopie du marché.
Quand on met en place ce genre de système, on considère que le marché, c’est-à-dire les transactions entre les uns et les autres, suivies d’une évaluation réciproque, va optimiser les comportements. Les meilleurs chauffeurs et les meilleurs clients circuleront bien, les meilleures filles et les meilleurs garçons auront des copains, puis les autres, tant pis, mais c’est le principe du marché libéral. Les bons producteurs ont de bons clients, les mauvais producteurs doivent faire autre chose.
C’est aussi l’utopie du marché du free speech. Quels sont les arguments de ceux qui aux États-Unis laissent fleurir des discours nazis ? C’est que les bons discours vont être acclamés, les mauvais discours vont être réfutés, que le marché va produire naturellement une représentation correcte et intéressante du monde. Cela ne marche absolument pas, pourquoi ? Parce que les producteurs d’idées ne sont pas égaux pour des raisons évidentes — en particulier, certains savent des choses (les universitaires, les experts, les journalistes, etc.) et d’autres non.
À quel moment les données recueillies ont-elles été suffisamment nombreuses pour permettre ce profilage ? Et quelles en ont été les conditions clés ? Pourriez-vous donner quelques repères ?
Dans l’histoire de l’Internet, au départ il y eut la Defense Advanced Research Projects Agency (DARPA), issue de la course aux armements et de la compétition technologique entre les États-Unis et l’URSS durant la Guerre froide : l’intention était d’avoir un réseau de communication extrêmement robuste, en particulier en cas de guerre thermonucléaire. Mais Internet a été réapproprié, en particulier par des individualités du mouvement hippie californien qui y ont vu un outil de démocratie, d’où le slogan « Information must be free », intéressant parce qu’il veut dire deux choses, « free » gratuit et « free » sans filtres.
Sur le plan technique, on peut mentionner les technologies de stockage de données digitales, les développements de l’informatique, des puces électroniques, de l’Internet avec les réseaux transatlantiques, les datacenters, le passage à l’Internet haut débit qui a rendu possible la quantité des données (big data) et l’essor de l’intelligence artificielle et de l’IA générative. Entrent aussi dans cette histoire les décisions juridiques sur l’absence de responsabilité des plateformes quant à leur contenu, qui favorise l’augmentation des contenus accessibles sur YouTube et les réseaux sociaux.
S’ajoute à cela la dimension d’exposition, le fait que les réseaux dits sociaux ont envahi la socialité des gens, ce qui a engendré brusquement des quantités faramineuses de données volontairement exposées. C’est enfin rendu possible par des entreprises, des firmes ayant les capacités techniques, financières de les stocker, une forme d’oligopole associée à une myriade d’acteurs.
C’est un nouveau capitalisme qui s’est déployé. Les gens, en utilisant Internet, produisent de la valeur utilisable par quelqu’un d’autre quasiment à leur insu, dans une logique marxiste de plus-value. Vous vous comportez d’une certaine manière, et ce faisant, vous produisez quelque chose à côté, vous produisez un « surplus ». Avec Shoshana Zuboff et Nick Snriceck, je suggère que l’exploitation de la donnée et sa captation jouent le rôle, dans ce capitalisme, de la construction du capital et de l’exploitation de la plus-value du travailleur à l’époque de Marx. Le profilage est l’une des modalités de la production de la plus-value du capitalisme financier.
Quelles sont les conditions du profilage, ses principaux mécanismes ?
La première condition, c’est cette formule triviale, mais extrêmement importante : chercher une information donne une information. Les données récoltées par le moteur de recherche Google concernant les recherches sur un sujet donné peuvent en elles-mêmes nous informer sur ce sujet : quand suscite-t-il de l’intérêt, chez qui, où. Si, dans le 6e arrondissement de Paris, 5 000 adresses IP cherchent des informations sur Kith, une marque de streetwear pour ados, on peut en déduire que Kith y ouvre une boutique.
Dans mon livre, je donne l’exemple du suivi du monitoring de l’herpès de l’huître. Il suffit de suivre la fréquence de la requête « herpès de l’huître » dans toutes les langues, selon la position géographique des adresses IP, pour connaître le trajet du virus, et à partir de là prévenir les ostréiculteurs. Cela marche très bien. D’où cette notion un brin étrange que la manière dont les gens font des choses sur cette méta-plateforme qu’est Internet donne des informations sur eux. On comprend d’ailleurs qu’il n’il n’y a pas besoin de faire payer les gens pour qu’ils accèdent à des informations, puisqu’eux-mêmes, en cherchant des informations, en donnent, ce qui est, une fois agrégé, monétisable.
Le second point important, c’est qu’énormément de choses deviennent gratuites. Le modèle économique des GAFAM a été un choix stratégique payant. La gratuité leur a permis d’accéder à énormément de données. C’est au cœur du beau livre de Chris Anderson, Free ! Comment marche l’économie du gratuit (2014). La gratuité, c’est le rêve des pionniers de l’Internet : Information must be free. En réalité, il existe plusieurs modèles de gratuité. Bien souvent, l’accès à un service est gratuit, sauf que pour qu’il soit vraiment bien, il faut acheter le modèle premium. Et effectivement, les gens finissent par le faire.
Si énormément de choses deviennent gratuites, c’est par ailleurs que le coût de la donnée tend vers zéro. La baisse du coût de la donnée permet aussi bien de travailler sur des tests génétiques à très faible coût, que pour moi chercheur, de consulter, avec un coût temporel nul, des ouvrages qui n’existent que dans une bibliothèque à Manchester. Sachant qu’ensuite, dans ce type de système, les données sont de qualités diverses, et qu’il faut souvent payer pour obtenir des données de bonne qualité. La qualité de la donnée devient un enjeu économique majeur avec l’intelligence artificielle.
Pourquoi consentons-nous à ce point à livrer nos données ?
Les autorités européennes ont très bien compris que cette question du consentement est cruciale, puisque le RGPD impose que chacun indique s’il consent à être tracé. Mais à quoi consentez-vous quand vous ignorez ce qui se passe dans le monde d’Internet ? Moi-même qui étudie ce système, je ne lis pas toutes les conditions d’utilisation, je scrolle et je vais sur « Accepter ». En général, chacun met en balance l’efficacité et la privacy (confidentialité). Pour schématiser, si c’est efficace sans être trop intrusif, on y va ! Le problème, c’est que nous sommes loin d’être conscients de la manière dont notre vie privée est envahie.
Le consentement n’en est pas nécessairement un vrai, parce que les conditions ne sont pas toujours réunies. Ceci étant, je pense que même quand les gens sont informés, cela ne change pas grand-chose. La plupart cliquent directement sur « J’accepte ». Il faut admettre que l’architecture du bouton est un nudge, elle est faite pour que vous cliquiez dessus. Non seulement le bouton « J’accepte » est très visible, non seulement le bouton « Continuer sans accepter » est un peu moins facile à trouver, mais en plus, « J’accepte » est bleu. Facebook a dépensé des dizaines de milliers de dollars pour trouver le bleu de son sigle. C’est un bleu très précis, qui optimise ce qu’on appelle l’engagement en anglais.
Les entreprises ont toujours cherché à vendre au mieux leurs produits et services, les campagnes électorales ont toujours cherché à inciter des électeurs à voter pour un parti politique, déployant dans les deux cas des techniques sophistiquées d’incitation. Qu’est-ce qui nouveau ici ?
Pour comprendre ce qui se passe avec le profilage, le meilleur exemple est celui du scandale Cambridge Analytica. Grâce aux données des comptes Facebook volées, cette société britannique a conçu des prédictions des potentiels votes au sujet du Brexit, si l’on supposait les votants exposés à certaines informations et images. Ils ont donc isolé des profils dont on pouvait penser qu’ils pourraient voter pour le Brexit, ils ont soumis leurs porteurs à des fake news et, surtout, ils les ont confrontés à de faux profils (« astroturfing »), les poussant à voter pour le Brexit comme c’était prédit. Les gens ciblés n’étaient pas n’importe quels indécis, c’est la raison même de l’efficacité de cette stratégie.
Avec le profilage, on ne réalise pas une campagne électorale pour tout le monde, on identifie des profils, via des techniques qui n’existaient pas avant. Le profilage permet aussi de produire un comportement nouveau. Souvent, les gens disent : « Oui, mais finalement, de toute façon, on est dans un monde où il y a des publicités partout, moi, je préfère qu’on me propose des publicités sur des choses dont j’ai besoin, le reste, c’est du bruit ». Et en fait, l’erreur, c’est qu’on suppose avoir forcément un besoin préexistant à la publicité. Le profilage est là pour que nous ayons besoin d’une chose dont on n’imaginait pas avoir besoin. Avec le profilage, on crée le comportement achetant, on crée le besoin, on crée l’idée politique.
Le profilage oriente. Est-on également dans la manipulation ?
C’est une question que je me pose. Dans Facebook ou YouTube, il y a un algorithme. Vous commencez à regarder un certain nombre de contenus, et puis, YouTube vous fait des propositions, en fonction de ce que vous avez regardé. L’algorithme, ici, va avoir des effets sur la personne. C’est une sorte de boucle : lorsque nous regardons des contenus sur YouTube, nous donnons des données sur soi, des données qui enrichissent notre profil.
Les données alimentent l’algorithme, qui nous fait voir des contenus, qui contribuent à produire des données, qui réalimentent l’algorithme… C’est sans fin. Et encore, je simplifie, parce que Meta a absorbé WhatsApp et Instagram, Google a pris YouTube, ce qui démultiplie les données. Le fait d’être pris dans cette boucle, est-ce de la manipulation ? Je n’en suis pas certain, parce qu’il n’y a pas forcément de manipulateur, et il n’y a pas de volonté. L’algorithme est là pour que la personne reste le plus longtemps possible sur YouTube, de manière à ce qu’elle voie davantage de publicités, c’est là le modèle économique.
Dans les devantures des librairies, les ouvrages qui portent sur l’avènement de « sociétés de surveillance » sont légion. Vous soutenez qu’on est dans des sociétés du profilage, est-ce différent ?
Nous sommes beaucoup à nous demander si l’on est dans des sociétés de surveillance. Shoshana Zuboff a écrit Le capitalisme de surveillance, Nick Snricek Capitalisme de plateforme, Bernard E. Harcourt le très beau livre Les sociétés d’exposition. Ce que je défends, c’est que, politiquement et épistémologiquement, la prédiction joue un rôle énorme.
Je reviens à Michel Foucault. Il soutenait qu’au moment de la révolution industrielle, le problème du capital consistait à gérer les populations de manière à optimiser la production. Pour cela, le capitalisme s’est appuyé sur une tradition monastique préexistante, la discipline. Dans une usine, tout le monde doit remplir son programme de manière synchronisée avec les autres.
Quand un individu transgresse ces attendus, il est sanctionné. Les grandes institutions sociales telles l’armée, l’école, l’hôpital, l’usine ou la prison vont être repensées à partir de là. La notion centrale dans son analyse, c’est la norme : pour que tout marche bien, il faut que les gens ne s’écartent pas de la norme, et pour assurer ce respect de la norme, on a besoin de deux choses : les surveiller pour vérifier qu’ils restent dans la norme, les punir lorsqu’ils s’écartent de la norme.
Michel Foucault emploie donc le mot de surveillance pour une raison précise : il convient d’imposer des normes et de surveiller que ces normes soient respectées par chacun. Or il me semble que nous ne sommes plus dans cette logique. La question est moins : « Qui va transgresser la norme ? », pour de multiples raisons qui ont à voir notamment avec l’individualisation des sociétés, que « Qui va faire quoi ? », et « Qui va réagir comment ? ». C’est pour cela que je parle de profilage.
Par ailleurs, l’une des thèses de Foucault est qu’il existe une sorte de pouvoir central qui voit tout le monde, c’est l’idée de surveillance panoptique. Bernard E. Harcourt conteste cette vision par un argument très juste. Elle n’a pas lieu aujourd’hui, parce qu’il n’y a pas de surveillance centrale. Tout le monde est visible par n’importe qui, c’est le modèle des réseaux sociaux. Évidemment, la surveillance existe, mais la visibilité généralisée et plus encore la question de la prédiction sont plus importantes. À quoi servent les données ? Elles servent à prédire. Au fond, la question n’est donc plus la transgression. Si vous transgressez maintenant, vous en faites un contenu vidéo, dans les limites fixées par la loi.
J’ajoute que dans une société où les trajectoires sont moins linéaires, où les gens changent de métier, changent de partenaire, changent d’un peu tout, la prédiction devient très importante. Elle est un pouvoir.
Dans votre livre, la question de l’autorité apparaît peu. Que devient-elle dans les sociétés du profilage ?
Les espaces de type Internet sont des espaces sans filtres. Par principe, n’importe qui peut dire n’importe quoi, et cela est censé se réguler comme un marché. D’où la consubstantialité entre cette idée du marché des idées, et les grands entrepreneurs d’Internet. Or, cela ne fonctionne pas. Le principe de la science, en revanche, c’est que n’importe qui ne peut pas légitimement dire n’importe quoi.
Je vais faire un tout petit détour. J’ai beaucoup travaillé sur les théories du complot. Dans ces théories, il y a une récurrence : les gens qui soutiennent que Paul McCartney a été remplacé par un sosie depuis 30 ans, ou que le 11 septembre est l’œuvre de la CIA, miment la science et disent que douter du récit officiel, après tout, c’est ce que font les scientifiques. Sauf qu’un scientifique doute, mais pas de n’importe quoi. C’est le point essentiel. Si je suis historien, je ne doute pas que Napoléon a existé.
Chaque discipline a sa zone de doute légitime. Et le doute s’accompagne toujours de la déférence, au sens où je m’appuie sur un savoir légitime. Si je fais de la physique, je sais que je peux prendre en compte ce qui est écrit dans un manuel de thermodynamique, mais pas dans un livre de médecine holistique. Ce principe de déférence légitime a à voir, bien évidemment, avec la notion d’autorité. Une autorité, c’est ce à quoi, dans un domaine donné, je défère de manière légitime. Et c’est ce qui fait complètement question, parce que ça heurte de fond le principe de l’Internet, qui est qu’il n’il n’y a pas d’éditeur.
Un éditeur, comme Gallimard ou Le Monde, c’est un filtre. L’éditeur joue aussi un rôle d’indice. Si je lis Libération, je sais que je n’aurai pas une ode à Philippe Aghion, je l’aurai dans Le Figaro. Si je vais sur un blog lambda sur Internet, j’ignore ce que je vais voir. Pour le dire succinctement, il y a une antinomie profonde entre la notion de marché des idées tel qu’il se déploie avec Internet et la notion de déférence légitime qui est intrinsèque à la science. Il ne faut pas trop s’étonner que Trump, qui est pour le marché des idées, soit en train de démolir la science américaine, avec l’idée de remplacer la science, et donc la déférence légitime.
Voyez-vous des risques dans ce profilage généralisé ? La dystopie peut-elle devenir notre réalité ?
Un algorithme de recommandation de chansons n’a pas d’« idée » du contenu d’une chanson, quand il vous en recommande une, il prend en compte que les auditeurs l’écoutent souvent, quand ils écoutent telle autre chanson. C’est pareil pour ChatGPT : il fait un ranking probabilitaire, qui vise à dire quelle est la phrase la plus probable, après par exemple, « Quel est le plus grand sportif du monde ? ».
Il va chercher dans une base de données considérable, ce qui est le plus souvent associé avec cette phrase. Et il va proposer « Usain Bolt » ou « Carl Lewis ». Il n’a aucune idée, si tant est qu’une IA ait une idée, de ce que c’est qu’est un « sportif », de ce qu’est « un grand sportif », ou de qui est Usain Bolt : c’est juste des voisinages de mots.
Dans cette approche statistique qui fait abstraction du contenu, en soi, évidemment, vous avez le germe de dystopies. Un collègue, Olivier Roy a écrit un livre, dont le titre est L’aplatissement du monde. La crise de la culture et l’empire des normes. Les intelligences artificielles, comme ces dispositifs du profilage que j’étudie, aplatissent, au sens où pour l’IA tout n’est que mots : Usain Bolt est juste un mot, qui va très souvent avec le mot médaille, rien d’autre, il n’y a aucune profondeur.
Ce dont je parle a des potentialités dystopiques fortes, mais, en soi, ce n’est pas fondamentalement dystopique. Sauf qu’effectivement, ces dispositifs, dans un contexte de pouvoir autoritaire, nous en prenons conscience avec Trump, et il suffit de regarder la Chine, donnent à des autorités des pouvoirs considérables sur les individus.
Par ailleurs, les dispositifs dont je parle encouragent un technosolutionnisme dangereux. Si l’on a un pouvoir de prédire, y compris éventuellement prédire pour éviter les catastrophes, on peut s’illusionner, croire que les solutions de court terme suffiront, et rester dans ce capitalisme financier qui est le nôtre.
Article
Le concept de « normes pratiques » est intéressant pour qui veut déployer un dispositif de contrôle et de sanction.
Interview de Vincent Dubois
Professeur à l’Université de Strasbourg et membre du laboratoire SAGE
Interview de Olivier Aïm
Maître de conférences en Sciences de l’information et de la communication, chercheur en théorie des médias et industries culturelles
Interview de Fabrice Hamelin
Professeur de sociologie à l’Institut d’études politiques de Fontainebleau-UPEC
Article
Quel meilleur millésime pour soumettre les prophéties du passé à l’épreuve des faits ?
Article
Si toute notre vie sociale tient dans un smartphone, à quoi bon profiter de sorties nocturnes ?
Article
Cet article appelle à s'extraire du dualisme nature/culture et donne à voir d'autres manières d'être au monde.
Article
À qui fait-on confiance ?
Article
Cet article revient sur quelques-unes des évolutions récentes : les préoccupations relevant de la justice et de la solidarité.