À force de vouloir tout remplacer par la machine, nous risquons de nous perdre nous-mêmes.
Que restera-t-il de nous si nous nous soumettons à la machine?
par Laurent Sagalovitsch - 1er avril 2024
À un moment donné, il va quand même falloir se demander où collectivement nous désirons aller. J'entends qu'il apparaît de manière de plus en plus transparente que plus nous avançons dans le temps, et plus la technique tend à nous imposer un nouvel ordre, celui de l'extrême rapidité, de l'efficacité tous azimuts, où sous couvert d'une promesse de progrès, notre sort dépendra de plus en plus de la machine et de ses performances.
Plus nous laissons la machine dans toutes ses déclinaisons possibles envahir notre quotidien, et plus nous nous éloignons de nous-mêmes. Qui a envie de vivre dans un monde où toute tâche sera déléguée à une machine sans que nous ayons notre mot à dire? Qui voudra vivre dans un monde désincarné, tributaire de toute une série d'algorithmes qui, mis bout à bout, décideront de la manière dont il faut nous comporter dans l'existence?
Nous sommes précisément des êtres humains, pas des machines. Nous avons une âme, un cœur; nous sommes traversés de tourments qui sont la racine même de notre condition, cette étrangeté à habiter un monde dont nous ne savons à peu près rien, si ce n'est qu'il cessera d'exister le jour où la mort nous en arrachera.
Désespérément, nous recherchons des réponses qui jamais ne viennent. Mais si précisément nous cessons d'être des individus pensants pour s'aliéner corps et âme à la machine, à la technique, que restera-t-il de nous au juste? Ce n'est pas que la machine nous aura remplacés, c'est qu'elle aura transformé l'individu en une sorte de caisse enregistreuse dont le seul souci dans l'existence sera de se divertir, d'abandonner la métaphysique pour la seule satisfaction de ses besoins matériels.
Tous autant que nous sommes, nous sommes chétifs, perdus à nous-mêmes, en prise avec un monde qui depuis l'aube de la création nous dépasse, nous écrase, condition qui fait évidemment notre grandeur et notre courage. L'homme n'est grand que parce qu'il ne cesse de chercher des réponses, de s'interroger sur ses origines mêmes, de tenter de trouver un compromis entre son angoisse existentielle et la nécessité faite de vivre malgré tout sa vie. Par la robotisation de la pensée, enlevez-lui ses capacités réflexives, et il finira par devenir une coquille vide, l'image même du néant.
Si d'un coup d'un seul, la pensée disparaît au profit de la machine, si l'écrit s'efface, remplacé par des traitements de texte, si l'intelligence s'intéresse seulement à rendre ce monde encore plus productif, si nous détricotons étape après étape ce qui constitue le fondement de nos âmes, que nous restera-t-il à nous autres, si ce n'est d'assister, impuissants et résignés, à notre propre disparition?
Voyez comment l'intelligence artificielle s'impose à nous. Nous n'en sommes qu'à ses balbutiements et déjà nous sentons combien en de nombreux domaines, elle sera notre tombeau. Partout, elle envahit notre quotidien, nous forçant à l'utiliser quand bien même nous rechignons à le faire. Elle ne nous laisse d'autres choix que de se plier à ses diktats.
Elle nous emprisonne dans tout un système de croyances qui voudrait nous convaincre qu'elle sera notre salut alors que par bien des aspects, elle contribue à propager une uniformité de la pensée, une paresse de l'esprit si universellement répandue que bientôt, nous ne serons même plus en mesure de réaliser à quel point elle nous aura rendu imbéciles à nous-mêmes.
L'intelligence artificielle, c'est le principe de la télévision, l'avachissement de l'homme, multiplié à la puissance dix mille. Si nous laissons la machine nous supplanter dans tout ce qui relève de la créativité, si nous abandonnons peu à peu le domaine de l'intellect à la seule volonté de la technique, alors nous perdons ce qui fait notre essence même, notre besoin de nous confronter, de nous questionner, de sans relâche, interroger notre condition d'êtres pensants.
Si nous faisons le deuil de la culture, c'est-à-dire de notre capacité à nous remettre en cause, alors nous cessons d'être au monde. Nous n'aurons même pas la grâce de l'animal pour nous sauver, non, nous deviendrons des estomacs qui goberont des milliards d'informations sans jamais être en capacité de les questionner. Dans cette béatitude de la bêtise qui peu à peu consacrera notre avilissement, nous deviendrons les champions de notre propre défaite.
Il est évidemment déjà trop tard. On ne peut pas, on ne sait pas arrêter la marche du monde. Il nous faut la subir, la plupart du temps, malgré nous. Non, la seule chose que nous pouvons faire, c'est de ralentir sa progression, de collectivement nous ressaisir pour résister à sa volonté de nous écraser. De cesser de nous comporter comme des moutons pour tâcher de lui tenir tête, quand bien même nous saurons notre défaite inéluctable.
Lisez, instruisez-vous, manifestez votre besoin de musique et de poésie, étonnez-vous, questionnez-vous, remettez-vous en cause, montrez-vous à la hauteur de votre condition de mortel, soyez fiers de vos tourments, chérissez vos peurs, n'ayez pas honte de vos fragilités, elles sont la condition de votre salut.
Ce sera notre chant du cygne.
Notre symphonie des adieux.
C’est un regard qui compte dans le milieu du photojournalisme. Le Genevois Niels Ackermann, cofondateur de l’agence Lundi13, auteur de plusieurs photoreportages primés, appelle les médias à bien réfléchir à leur utilisation des IA génératives comme Dall-E ou Midjourney pour illustrer leurs articles. Parce qu’elles menacent son gagne-pain? Non, rétorque-t-il. Parce que la presse doit s’ériger en rempart qui protège encore le vrai, dans un monde inondé par des contenus synthétiques.
Heidi.news — Qu’est-ce que vous inspirent ces nouveaux logiciels d’IA génératives?
Niels Ackermann — Lorsque je vois une nouvelle technologie qui émerge, mon premier réflexe est de me remémorer les précédents bouleversements qui ont affecté ma profession et que j’ai moi-même vécus. À chaque fois, il y a ceux qui ont immédiatement adopté ces nouveaux outils, et ceux qui s’y sont opposés. J’avais 13 ans quand j’ai acheté mon premier appareil photo numérique. Autour de moi, certains photographes ont regardé ces nouveaux capteurs avec mépris, estimant que seules des photos prises par des appareils avec film avaient de la valeur. Mais la technologie a modifié les attentes du marché. La possibilité d’avoir des photos numériques qui n’ont pas besoin d’être développées et peuvent être utilisées immédiatement s’est avérée utile, notamment dans les médias. Ceux qui n’ont pas voulu opérer ce virage, ou l’ont fait trop tard, ont été mis de côté.
Le même scénario s’est reproduit il y a quelques années avec Instagram. Certains photographes ont refusé de s’y inscrire. Cela les a exclus en partie du marché, car de nombreux clients s’en servent comme d’un annuaire téléphonique pour sélectionner leur photographe.
Et cela se répète donc avec les IA génératives?
Bien sûr, le processus sera le même, et peut-être même encore plus rapide. En voyant l’essor fulgurant de ces nouveaux logiciels, j’ai décidé de m’y intéresser, parce que je veux comprendre leur fonctionnement et leur utilité. J’ai testé entre autres Dall-E, ChatGPT et Midjourney. J’ai été bluffé par la puissance de ces outils. A tel point que je me suis rendu compte qu’ils pourraient rapidement affecter mes revenus.
«Il existe sans doute un marché pour le réel»
C’est-à-dire?
Aujourd’hui, l’essentiel de mon chiffre d’affaires provient de mandats dans la pub ou pour des entreprises. Mon travail de photojournaliste, bien que je l’affectionne profondément, est marginal en termes de revenus. En testant ces IA génératives, j’ai pris peur. Je me suis d’abord imaginé que n’importe quelle agence de pub pourrait les utiliser pour générer des images d’excellente qualité pour leurs campagnes. Comment moi, en tant que professionnel, pourrais-je encore justifier des devis à cinq chiffres quand de telles technologies sont disponibles, à un prix défiant toute concurrence?
Je me suis toutefois souvenu qu’il était déjà possible de réduire les coûts en ayant recours à des banques d’images. Si la plupart des agences ne l’ont pas fait jusqu’ici, c’est peut-être parce qu’elles cherchent quelque chose de plus: une certaine personne, un certain lieu, mais aussi une certaine forme d’humanité qu’on ne trouve pas forcément dans ces banques d’images. Cela m’a rassuré de me dire qu’il existe sans doute un marché pour le réel, dans un monde où la disponibilité du faux, du synthétique devient illimitée.
Un «marché pour le réel», qu’est-ce que ça veut dire?
Je suis convaincu que la photographie transmet des émotions particulières. C’est ce qui a fait le succès de ce médium et c’est une des choses qui me fait tant aimer mon travail de photojournaliste. Ces images racontent quelque chose, elles capturent une part de «vrai», une scène, un moment de l’histoire, et elles suscitent des émotions, positives ou négatives. Dans un monde où la disponibilité pour le synthétique est illimitée, j’ai la conviction que les médias doivent devenir des «marchands de vrai». Le photojournalisme m’a mené vers la publicité, qui est plus rémunératrice, mais il se peut que ces évolutions technologiques inversent cette pyramide des revenus et me pousse de la publicité vers le journalisme.
Justement, comment réagissez-vous face aux médias qui génèrent de fausses photographies pour illustrer leurs articles? Le Blick l’a fait récemment, avec une image où apparaissent cinq jeunes qui n’existent pas.
Je ne vais pas le cacher, cela m’a porté un coup au moral de voir qu’un média s’amuse à générer des deepfakes, quand bien même il s’agit de visages qui n’existent pas, et que la légende photo le précise. Je ne l’ai pas mal vécu pour des raisons financières, parce que cela m’a privé d’un quelconque revenu. S’ils n’avaient pas généré cette image, ils auraient illustré leur article par une photo tirée d’une banque d’images. Le problème, c’est que cela porte atteinte à la crédibilité des médias. Ces derniers doivent s’interroger sur leur rôle dans cette époque où l’offre de faux est illimitée et omniprésente. Selon moi, cette profession doit se considérer comme le rempart qui protège encore le vrai. Et pour pouvoir occuper ce rôle, il faut être intraitable avec la déontologie.
Ce n’est pas le cas, selon vous?
Je pense que les médias suisses ont toléré ces dernières années des pratiques qui posent question sur le plan déontologique. Qu’il s’agisse (entre autres) de publireportages plus ou moins cachés, de sujets teintés de militantisme ou d’une absence de distance vis-a-vis du langage corporate. J’ai le sentiment que ces pratiques doivent être définitivement arrêtées. En Suisse, aucun média ne m’a par exemple demandé de signer une charte pour m’imposer des limites et s’assurer de mon honnêteté. La première fois que j’ai collaboré avec le New York Times, j’ai reçu des instructions sur ce qui était acceptable ou non. Parmi cette liste figurait l’interdiction d’accepter des cadeaux, le paiement du voyage par des tiers, mais aussi des paramètres techniques à respecter dans la manière d’utiliser mon appareil pour s’assurer que les images reflètent la vérité. Le risque, si je ne respectais pas ces règles, c’est d’être tout simplement ostracisé par les médias américains, parce que le New York Times aurait fait passer le mot.
«Il faut une distinction claire entre ce qui est vrai et ce qui ne l’est pas dans les médias»
Mais au fond, ne cherchez-vous pas à conserver votre gagne-pain en limitant la capacité de choisir des médias?
Non. Je peux nourrir ma famille sans la presse aujourd’hui, et je ne fais pas partie de ceux qui vont dire que cette technologie va précariser ma profession. Cela fait déjà 20 ans qu’elle est précarisée. J’ai simplement la conviction qu’un lecteur qui ouvre un journal doit avoir la garantie que la photo qu’il voit raconte bien quelque chose de réel, et qu’il n’a pas besoin de systématiquement vérifier la légende pour s’assurer qu’il ne s’agit pas d’un contenu synthétique.
Pour moi, l’enjeu va au-delà de mon propre confort financier. Il s’agit de conserver des lieux où le réel a sa place. Si les médias ne saisissent pas cette occasion pour proposer un contenu rigoureux où le vrai est la seule boussole, alors ils ne serviront plus à rien dans le monde qui nous attend. Il faut qu’il y ait une distinction claire entre ce qui est vrai et ce qui ne l’est pas dans les médias. Raison pour laquelle d’ailleurs je pense qu’une illustration qui a un style cartoon et qui serait générée par une IA ne poserait pas de problème pour illustrer un article. Sa dimension fictive sauterait aux yeux. Mais tout ce qui tente de simuler le réel, qui peut tromper, c’est une limite qui ne doit pas être franchie, et je m’inquiète de voir que certains médias l’ont déjà franchie sans attendre.
Que les médias diffusent uniquement de vraies photos ne changera pas le fait que l’on va s’habituer à questionner l’authenticité de chaque contenu, dès lors à quoi bon?
Peut-être, mais les lecteurs ont toujours vu les photos publiées dans la presse comme une forme de rapport au réel. Les montages, qui ne datent pas des IA génératives, ont toujours été vécus comme une tromperie. Il ne doit pas en être différemment avec ces logiciels. Préserver un espace où le réel est la règle sera d’autant plus crucial justement, parce que ce questionnement autour de l’authenticité ne sera pas nécessaire.
Au-delà du rôle des médias, je m’inquiète qu’on me demande quel «prompt» (requête adressée à l’IA, ndlr.) j’ai utilisé pour générer les photos que j’ai réellement prises, par exemple dans mes reportages en Ukraine. Je m’interroge beaucoup sur le rapport qu’auront nos enfants aux photos lorsqu’ils seront grands. J’espère qu’ils seront en mesure de les concevoir comme quelque chose qui raconte le réel, et pas uniquement comme un contenu synthétique que n’importe qui aurait pu générer. J’espère surtout que ces photographies continueront à leur véhiculer des émotions.
Le Conseil d'État vient de valider le système informatique d’aide à la décision, DataJust, permettant aux tribunaux d’établir les indemnisations auxquelles ont droit les victimes de préjudices corporels. Les associations de défense des libertés fondamentales dénoncent l'utilisation des données personnelles sans le consentement préalable des justiciables.
L’objectif du programme DataJust est d’apporter une assistance aux magistrats pour évaluer, par exemple, les montants des indemnisations auxquelles peuvent prétendre les victimes d’agression physique ou d’accident de la route. Le lancement de cette expérimentation qui a été annoncée par décret le 27 mars 2020, « vise à développer un algorithme, chargé d’extraire de manière automatique et d’exploiter les données contenues dans les décisions de justice portant sur l’indemnisation des préjudices corporels » précisait alors le ministère de la Justice sur son site.
Pour « s’entraîner » ce système qui est basé sur des programmes d’intelligence artificielle puise dans un fichier contenant des milliers de données sensibles. Parmi celles ci, les noms, prénoms des victimes ainsi que des informations liées à de potentielles blessures, des expertises médicales, mais aussi leur situation professionnelle ou financière. Si la plupart de ces informations ont été rendues anonymes, certains éléments d’identification comme la date de naissance ou encore les éventuels liens de parenté entre les victimes et leurs proches figurent en clair dans la base de données.
Cette méthode de traitement informatique contreviendrait au RGPD, le dispositif européen de protection des données personnelles et à la loi Informatique et libertés, selon plusieurs avocats. Même constat du côté des associations. « L’État s’affranchit avec cette expérimentation de justice algorithmique, des lois qui protègent les données personnelles et la vie privée », estime Bastien Le Querrec, juriste et membre du groupe contentieux à la Quadrature du Net, l’association de défense des libertés fondamentales dans les environnements numériques.
« Cette méthodologie qui consiste à apposer une étiquette d’expérimentation pour s’autoriser à aller piocher encore plus d’informations à caractère personnel, nous dérange. À chaque fois, on décrète que c’est expérimental, ne vous inquiétez pas, nous allons vérifier si le résultat proposé par l’algorithme est proportionné, alors qu’en réalité on joue à l’apprenti sorcier. Cette croyance qu’un algorithme peut prendre de meilleures décisions qu’un être humain se généralise, nous l’observons dans le secteur de la police, maintenant celui de la justice, en matière de contrôle social dans les systèmes de la Caisse d’allocations familiales… nous constatons que ces algorithmes s’immiscent de plus en plus dans la vie quotidienne des citoyennes et des citoyens et c’est vraiment un choix de société. À la Quadrature du Net, nous essayons de lutter contre les biais qu’engendrent ces programmes automatiques, parce que la technologie parfois peut amener à des dérives, comme c’est le cas aujourd’hui avec le dispositif DataJust », regrette Bastien Le Querrec.
Le Conseil d'État saisi par la Quadrature du Net indique dans ses conclusions que ce projet étant d’intérêt public, alors le consentement des personnes figurants dans le fichier n’est pas nécessaire pour procéder au traitement de leurs données personnelles. Le dispositif DataJust dont l’efficacité n’a pas encore été dévoilé devrait être opérationnel fin mars 2022, prévoit le ministère de la Justice.