Initiée aux États-Unis en 1956, l’intelligence artificielle (IA) a aujourd’hui totalement investi notre quotidien, des réseaux sociaux à la navigation GPS, de la reconnaissance faciale aux diagnostics médicaux ou à la robotique de l’industrie… Elle fascine, elle fait peur et monopolise l’attention des chercheurs, des citoyens ou des États. Pour comprendre de quoi on parle, il faut retourner aux bases, expliquer ce qu’est l’IA, son histoire, comment elle fonctionne, ce qu’elle peut apporter et quels sont ses dangers. Nicolas Sabouret, professeur en informatique à l’université Paris-Saclay et chercheur au Laboratoire interdisciplinaire des sciences du numérique (LISN-Univ) répond aux questions de RFI.
Nicolas Sabouret : Pour comprendre, il faut revenir à l'origine du terme « intelligence artificielle ».
Dans les années 1950, le chercheur britannique Alan Turing travaille sur les calculs et en particulier la théorie de la calculabilité et de la complexité. Il faut rappeler que les ordinateurs et l'informatique, c'est la science du traitement de l'information et que la transformation de l’information, c’est du calcul. Turing, fer de lance de la discipline, a défini ce qui est calculable et ce qui est complexe à calculer. Visionnaire, il a imaginé que des machines qui font des calculs comme ça seraient un jour capables de jouer aux échecs, de conduire une voiture ou de faire des tâches que nous, les humains, nous faisons avec notre intelligence. Il a dit à l'époque : « Si les machines arrivent à faire ça, on pourra parler de “Machine Intelligence” » (« intelligence machine »). C'est ce qui a donné ensuite « Artificielle Intelligence », c’est-à-dire l'intelligence artificielle.
Au-delà de l'aspect visionnaire de Turing, il y a deux points importants à comprendre. Le premier, ce n’est qu’à aucun moment les chercheurs ne disent que la machine est intelligente. La machine calcule, elle ne pense pas. Elle fait les choses mieux que nous, ou au moins aussi bien que nous dans certains domaines. Mais elle le fait avec du calcul, non pas avec de l'intelligence. Le chercheur néerlandais Edsger Dijkstra a dit cette phrase géniale : « Se demander si un ordinateur peut penser, c'est aussi stupide que se demander si un sous-marin peut nager. » Cette citation résume tout. Quand on comprend le terme « intelligence artificielle » de cette manière-là, on comprend bien qu'on ne parle pas de machines intelligentes. On parle d'imiter, de reproduire les capacités des humains à l'aide du calcul.
À écouter aussi : Faut-il avoir peur de l’intelligence artificielle?
Le second point, c'est la notion de la complexité du calcul : Turing avait compris que certains problèmes étaient compliqués, voire infaisables par une machine. Il s’est alors demandé comment les résoudre par le calcul. Pour expliquer, prenons par exemple le jeu d'échecs. Dans les années 1930, le mathématicien américain John Von Neumann propose un algorithme qui permet de calculer la partie parfaite aux échecs pour gagner à tous les coups. Mais pour le réaliser, il faudrait faire un nombre d'opérations qui est de l’ordre de dix puissance 120, ce qui est impossible. Les chercheurs en IA vont donc chercher des solutions dans un temps de calcul raisonnable, tout en sachant qu’il n’est pas possible d'obtenir la solution exacte. On accepte de faire des solutions rapprochées pour obtenir la plupart du temps un résultat correct. En intelligence artificielle, on parle d’heuristique.
Le terme d’intelligence artificielle est assez trompeur. En fait, c’est du calcul informatique dans lequel on a simplifié le problème pour que ça marche la plupart du temps, même si on sait que ce n’est pas possible de le faire fonctionner parfaitement.
L’intelligence artificielle démarre en 1950 avec la publication de l’article d’Alan Turing intitulé « Computing Machinery and Intelligence » (« Les ordinateurs et l’intelligence »), dans lequel il se demande si « les machines peuvent penser » et pose son fameux test de Turing, le jeu de l’imitation.
C’est en 1956, quand des chercheurs se réunissent à l’université de Dartmouth, aux États-Unis, que le terme « intelligence artificielle » est employé pour la première fois. L’organisateur de la conférence, le mathématicien américain John McCarthy, décide de ne pas garder le terme « Machine intelligence » qui était celui de Turing, et choisit celui de « Artificial Intelligence » (« intelligence artificielle »). Dès la fin des années 1950, il y a une effervescence folle sur les machines « capables de tout faire et qui vont nous changer la vie » à travers des clips à la télévision, à la radio, des articles de journaux, etc.
L'IA reste très populaire jusqu’au début des années 1970. Mais les résultats n’étant pas là, l’enthousiasme retombe et l’IA connaît son premier « hiver » jusqu’au début des années 1980. Puis, il y a eu un rebond avec les systèmes experts basés sur des règles écrites à la main pour essayer d'imiter l’intelligence humaine. Ça a duré cinq ans et le souffle est retombé. C’est le deuxième hiver de l'IA, qui dure de 1985 à 2005.
Il y a bien eu la tentative d'IBM avec Deep Blue en 1990 de redonner un coup de blason à l'IA. Mais ça n’a pas fonctionné, parce que les gens ont vu que Kasparov ne pouvait pas suivre face à une machine capable de calculer tous les coups possibles à l’avance. La machine est-elle vraiment intelligente ? Ça n’a pas vraiment aidé l’IA.
En 2005, il se passe deux choses assez incroyables qui ont fait redécoller l’IA.
La première, c'est le développement des cartes graphiques par l'industrie des jeux vidéo. Les cartes graphiques ont la capacité de faire simultanément et très rapidement un très grand nombre d'additions et de multiplications.
Dans les années 1990, les chercheurs Yann Le Cun et Joshua Bengio avaient proposé des réseaux de neurones qui semblaient bien marcher, mais qui nécessitaient des moyens de calcul qu’on n’avait pas à l’époque. En 2005, ils publient un article intitulé « Deep Learning » (« Apprentissage profond ») dans lequel ils expliquent que les cartes graphiques vont leur permettre de calculer plusieurs couches de neurones simultanément et d’être plus performants que ce qu’ils faisaient avant deux couches. Et ça a fonctionné et la technique des réseaux de neurones a commencé à convaincre les chercheurs.
La seconde est la création par Google d’une unité de recherche pour s'attaquer aux problèmes encore non résolus des jeux. Ils utilisent un algorithme classique utilisé pour le go auquel ils branchent un réseau de neurones pour que l’algorithme gagne en performance. Le jeu de go est intéressant, parce qu’on peut faire jouer la machine contre elle-même, ce qui lui permet de s'entraîner. Elle règle automatiquement les paramètres du réseau de neurones à toute vitesse en faisant des millions de parties contre elle-même, jusqu'à ce qu'elle apprenne à bien jouer contre elle-même. Ce mélange des techniques de calculs classiques et de réseaux neurones aboutit, en 2015, à la victoire d’AlphaGo contre le champion du monde de go en titre. Cet événement relance toute la thématique de l’IA et les gens investissent à nouveau dans ce domaine.
Depuis 2015, l’hiver de l’IA n’est pas retombé et je pense que c’est grâce à la communication prudente des chercheurs sur les limites de l’IA, retransmises par les journalistes au grand public, qui a été de dire : « Attention, l’IA ne marche pas à tous les coups, elle ne peut pas tout faire et on travaille dessus », contrairement aux années 1960 et 1980 où on avait annoncé qu’en dix ans elle aurait tout résolu.
Par la suite, différentes techniques de réseaux de neurones sont développées et notamment celles dont on parle aujourd’hui : les algorithmes de type « Generative Transformer », les transformeurs génératifs qui servent à faire des réseaux génératifs comme ChatGPT et Dall-E.
L'IA est cachée un peu partout. Quand vous envoyez une lettre par la poste, la trieuse utilise un algorithme d'IA pour lire les codes postaux, et ça dès les années 1990. Autre exemple : pourquoi les ascenseurs arrivent à s'arrêter doucement au bon étage ? Grâce à des algorithmes d'IA incorporés dans l'électronique.
Il y a des algorithmes d’IA qu’on utilise tous les jours. Le premier, c’est la recherche d’informations via un moteur de recherche comme Google. Ensuite, il y a les aides à la navigation des GPS. Et les réseaux sociaux : beaucoup de gens n’en ont pas du tout conscience, mais l’algorithme qui leur propose les posts, c’est de l’IA. Si vous avez aimé le post de Rihanna, alors vous aimerez le post de Justin Bieber. Si vous faites une recherche pour des nouvelles chaussures, par exemple, c’est encore un algorithme d’IA qui va vous proposer des publicités de chaussures sur votre compte Instagram.
En médecine, on développe des outils d'aide au diagnostic médical depuis vingt ans et ils fonctionnent plutôt bien. Mais la difficulté de leur mise en pratique est due au temps nécessaire pour rentrer toutes les informations dans la machine. Le médecin généraliste n’a pas trop envie de passer une demi-heure à saisir toutes les informations alors qu’il peut faire le diagnostic du patient en l’auscultant.
En revanche, les algorithmes de reconnaissance automatique d'images permettent un réel usage complémentaire entre l'humain et la machine. La machine va faire une sorte de de pré-diagnostic sur l'image que le médecin, qui a l'ensemble du dossier, va pouvoir conforter ou pas.
Ces choses commencent à se mettre à se mettre en place et je pense que dans quelques années, on va vraiment réussir à faire des choses intelligentes avec l'usage de l'IA dans le contexte médical.
L'IA est aussi utilisée dans les outils décisionnels. Une entreprise de distribution d'eau va utiliser l'IA pour tester des hypothèses sur le réseau de distribution de l’eau avant de les mettre en œuvre dans la réalité. Ou encore EDF va utiliser des algorithmes d'IA pour générer des courbes de charge qui permettent d’étudier la manière dont la consommation des foyers va pouvoir évoluer. Ces algorithmes d'IA vont reproduire des choses que font les humains, c’est là que la partie de simulation de l'humain de l'IA peut être utile.
Une autre grande avancée de l’IA qui n’est pas visible pour le grand public, bien qu’elle soit très utilisée, concerne le traitement du son. Aujourd'hui, il y a des algorithmes d'IA dans tous les systèmes de traitement du son, ce qui permet d’avoir du son de très bonne qualité à la radio, les DVD, etc.
L’IA va aussi révolutionner tout ce qui concerne la conservation du patrimoine immatériel (texte, image, audio) en permettant de stocker, de ranger, de trouver, d'organiser des quantités de données astronomiques.
L’IA est également utilisée par l’aéronautique ou encore l’industrie pour optimiser les chaînes de production.
La première technique d’IA est basée sur l’écriture de règles qui a été très populaire dans les années 1970 et 1980, car c'est vraiment ce qui marchait le mieux à l'époque. Si je vous demande, par exemple, comment vous faites pour aller de Paris à Marseille en voiture, vous allez m’indiquer les étapes que vous allez suivre. On va écrire des règles à la main pour reproduire le raisonnement de l'humain en programment des « si je vois un panneau routier, alors je tourne à droite ; si je croise un ours, alors je freine pour ne pas le percuter », etc.
Une fois ces règles écrites, il y a des techniques de calculs qui les mettent en œuvre et ça permet d'obtenir des résultats qui sont assez incroyables. Quand on envoie des robots sur Mars, ils fonctionnent avec des systèmes à base de règles. C'est assez adaptatif et on contrôle tout ce qui se passe. On sait où on a mis les erreurs, donc on sait les approximations qui ont été faites. Quand le robot se trompe, on sait pourquoi. Il y a des techniques de diagnostic automatique et de planification qui sont proposées pour faire des tâches de ce type-là, ça marche très bien.
La seconde technique d’IA, c'est l'apprentissage automatique, le terme français pour « Machine Learning ». L’idée est de dire à la machine comment faire les choses. On décide quelles sont les variables importantes à étudier et, ensuite, on demande à la machine de calculer automatiquement les liens entre ces variables. On lui fournit une structure de programme dans lequel il y a les valeurs manquantes et on lui demander de trouver les valeurs pour que ça fonctionne.
L'image que j'aime bien donner est celle d’une table de mixage audio. Quel que soit le son qu'on donne en entrée, il faut trouver la bonne position des boutons pour obtenir le même son en sortie. Face au nombre infini de possibilités, on entraîne la machine en lui donnant une multitude d’exemples pour qu'elle parvienne progressivement régler les paramètres qui lui permettent de calculer la meilleure sortie possible. À force de bouger un peu tous les boutons, on finit par trouver les valeurs qui, la plupart du temps, fonctionnent très bien. D’ailleurs, le terme apprentissage automatique est plutôt mal choisi. Les chercheurs du domaine parlent plutôt d'entraînement.
À écouter aussi : Comment relever les défis de l’intelligence artificielle?
La technique d’apprentissage automatique la plus utilisée aujourd'hui celle des réseaux de neurones, qui n’ont rien à voir avec les réseaux de neurones humains. Si Frank Rosenblatt s’en est inspiré quand il a composé sa machine en 1957, il n’a jamais prétendu avoir fabriqué des neurones artificiels.
Un réseau de neurones artificiels, c'est une succession d'additions et de multiplications qui sont enchaînées. Autrefois, on ne savait faire que des réseaux de neurones à une couche, parce qu’on n’avait pas les machines pour le calculer. Aujourd’hui, le réseau profond est composé d’une dizaine de couches et un ordinateur comme le vôtre ou le mien peut faire tourner ce type de réseau de neurones sans problème. À partir de trois couches, on parle de « deep learning » (« apprentissage profond »).
On peut utiliser les réseaux de neurones de nombreuses manières différentes. Avec les transformeurs, on entraîne des réseaux de neurones pour qu’ils transforment n'importe quel concept en nombres, et grâce à un autre réseau de neurones, on va produire un résultat pour générer du texte, du son ou de l’image. Si on demande à une IA génératrice d’images : « Je voudrais un pape une doudoune blanche », elle va combiner le nombre « pape » et le nombre « doudoune blanche » pour fabriquer une image de pape en doudoune blanche.
ChatGPT fonctionne comme ça aussi. On lui a donné tous les textes de la langue française à partir desquels il est capable de générer du texte qui ressemble énormément à ce qu’un humain aurait pu écrire. En revanche, si la question posée est absurde, par exemple, « parle-moi des œufs de lapin », il va parler des œufs de lapin. Il va dire des absurdités, mais il le fera très bien. Il faut savoir qu’il y a un petit secret derrière ChatGPT : on lui a fait générer beaucoup de phrases et des humains – on parle de milliers d'humains pendant des milliers d’heures – ont corrigé chaque phrase à la main pour en faire la réponse la plus crédible possible par rapport à la question posée. C’est grâce à ces tâches assez ingrates de « fine tuning » (« réglage fin ») que ChatGPT est devenu très fort pour donner l’impression de parler comme un humain, qu’il ne tient pas de propos racistes ou qu’il sait dire « je ne sait pas ».
Enfin, la différence entre ces deux techniques est la limite du temps de programmation et donc de coût humain en développement. En pratique, ces algorithmes d'apprentissage donnent très souvent des résultats bien meilleurs que ce qu’un informaticien ferait dans le même temps en le codant à la main. Le travail de réglage de paramètres est rébarbatif et ça, la machine le fait très bien. C'est pour ça que l’apprentissage automatique marche bien.
Les IA qui existent dans notre usage quotidien et dont on parle dans la presse sont toutes des IA faibles, par opposition à cette espèce de rêve de l'IA forte. Il y a d’ailleurs très peu de chercheurs qui s'imaginent que l'IA forte va arriver bientôt.
L'IA forte est une notion qui a été proposée par John Searle, un philosophe spécialiste des questions du langage et de l'intelligence humaine. Il disait que si l'intelligence artificielle est capable de traiter les problèmes complètement différents les uns des autres – conduire une voiture, jouer aux échecs, se fabriquer un sandwich –, une IA qui serait capable de faire plein de choses différentes, on pourrait dire qu'elle est « forte » en ceci qu'elle est proche de l'intelligence humaine.
On est donc plutôt sur des approches qui consistent à améliorer les différentes techniques d'IA faibles pour résoudre des problèmes de plus en plus complexes. Chaque algorithme d’IA résout une famille de problèmes bien spécifiques et il n’est pas forcément réutilisable dans d’autres contextes. Par exemple, l'IA qui joue très bien aux échecs, il faut la réentraîner si on veut la faire jouer au jeu de go. On ne peut pas lui demander de conduire une voiture. Pour ça, il faudra faire appel à une autre IA.
Je suis très sceptique sur les craintes qui sont exprimées vis-à-vis des IA génératives. Évidemment, en tant qu'enseignant, on peut s’inquiéter de voir les élèves tricher plus facilement. On a vu la même chose quand Wikipédia est sorti. Mais les enseignants repéraient assez vite quand la page avait été recopiée, parce que l’élève n’avait rien compris. Le niveau supplémentaire, c’est que ChatGPT il fait la synthèse de la page Wikipédia et il le fait plutôt bien. On peut s’inquiéter de voir les élèves tricher encore plus. Mais je ne le pense pas. Je pense au contraire qu’il faut apprendre aux gens à utiliser ChatGPT. L’idée que la machine va pouvoir nous produire des éléments déjà bien préparés qu'on va pouvoir retravailler ensuite, c’est un peu comme quand on va sur Wikipédia pour rechercher des informations et qu'ensuite on les corrige.
Sur l'aspect de l’image, je suis plus réservé, puisque qu’on ne peut pas – à moins d'être un expert en manipulation d'images – retravailler les images produites par un système génératif. Donc, on va les prendre telles quelles, et le problème est qu’elles ont l’air vraies alors qu’elles sont totalement fausses, elles ne décrivent pas une réalité. Autant le texte, les gens le prennent un peu avec précaution. Mais on a pris l'habitude de considérer que si l’image est vue dans les médias, alors elle est vraie. Il va donc falloir accepter qu’une image peut être le produit d’une machine. C'est là où je rejoins les gens qui expriment des craintes.
Les algorithmes d’IA générative vont aussi permettent aux chercheurs d'attaquer d'autres problèmes de l’IA comme celui de la notion de causalité qui est très compliquée à capturer et qu’on est aujourd’hui obligé d’écrire à la main. De mon point de vue de chercheur, c'est vraiment une avancée qui nous permet de progresser. Du point de vue du grand public, j'entends tout à fait les inquiétudes.
Quand on a remplacé, par exemple, les caissières de supermarché par des caisses automatiques, il y a certes de l’IA pour lire les code-barres ou reconnaître les fruits qu’on a mis sur la balance. Mais la perte des emplois de caissières n’est pas un problème de technologies, c'est un problème de choix de société. Et il faut faire en sorte de protéger ceux qui seraient victimes du déploiement de ces outils. Il faut qu’en tant que société, on apprenne à le faire là, maintenant. Il y a des métiers qui vont être modifiés par les systèmes d’IA génératifs ou autres, car les choses évoluent en permanence. Si on arrive à faire des machines qui accomplissent mieux que nous certaines tâches que nous faisons avec notre intelligence, comment accompagner les gens qui gagnent leur vie en faisant ces tâches ? Je pense que nos sociétés sont capables de prendre ça en charge et d’éviter le chômage ou la reconversion forcée. Et d’apprendre aux gens à se servir de l’IA pour pouvoir travailler sur les compétences qui sont les nôtres.
Le journalisme est un des métiers qui est aujourd'hui le plus en évolution par rapport à ces questions d'IA, puisque les journalistes sont le lien entre les individus et l’information. Des machines qui étaient au départ des machines de traitement de l'information sont devenues les machines de génération de l'information. Il faudrait donc peut-être que les journalistes, qui sont des générateurs d’information, deviennent aussi des régulateurs ou des contrôleurs de l'information pour attester que celle-ci est vraie, ce qu’une machine ne pourra jamais faire. Le journaliste, par son travail, peut certifier que ce qui est dit dans cet article ou ce qui est montré sur des images correspond à une certaine réalité. Mais c'est sûr, le monde de la désinformation a de beaux jours devant lui.
Toute technologie est potentiellement dangereuse. Quand on crée une technologie, on sait qu’elle pourrait être mal utilisée. Ce n’est pas l'IA qui est dangereuse en elle-même, il faut vraiment sortir du mythe qu’on a créé un monstre qu’on ne contrôle pas. On sait ce que font les machines et comment elles le font. On ne sait peut-être pas expliquer les calculs qu'elles ont fait, mais on contrôle les résultats. On sait qu’elles peuvent faire des erreurs et quand ça arrive, on essaye de comprendre pourquoi et de l'améliorer.
Ce n'est pas un problème technologique, c'est un problème sociétal. Que des chercheurs s'inquiètent de l'usage de leurs machines, je le comprends et c'est légitime. Au début des années 1940, la physicienne autrichienne Lise Meitner, qui a codécouvert la fission nucléaire, déclare qu’elle ne participerait pas au projet Manhattan, parce qu’il n’est pas normal d’utiliser cette découverte pour faire des bombes. Qu’un chercheur se déclare inquiet qu’on fasse des systèmes qui fabriquent des « fake news » (« infox ») à partir des IA génératives, c'est tout à fait légitime.
Mais en pratique, il faut revenir dans notre rôle de chercheur et donner notre avis sur le plan scientifique. Sur le plan sociétal, ce n'est pas à nous de décider, ce n’est pas notre métier. C'est à la société, aux hommes politiques, aux journalistes, aux artistes, aux autres personnes qui ont des choses à dire sur le sujet. Nous, scientifiques, sommes là pour créer de la connaissance, pas pour voir comment elle est utilisée.
En revanche, je suis contre le fait de dire qu’il faut arrêter la recherche sur tel domaine, parce que c'est potentiellement dangereux. Je pense que c'est une erreur de croire que la connaissance est dangereuse. C'est l'usage de la connaissance qui peut être dangereux, c’est bien là la différence. La recherche sur l’IA doit continuer, ce sont les usages qu’il faudrait mettre en pause. Mais c'est compliqué, parce que on ne trouvera jamais un accord mondial là-dessus. Ça fait cinq ans maintenant que les Chinois utilisent la reconnaissance faciale pour noter les gens dans la rue. Il faut savoir que l'algorithme ne fait que reconnaître les gens. Ce sont des humains qui mettent les notes. Est-ce qu'il faut pour autant arrêter les recherches en vision artificielle qui sont les mêmes qui permettent de détecter les cancers du sein ? Je ne crois pas.
Les gens qui connaissent l'IA vont alerter sur les usages et c’est normal. Dire : « Attention, avec Dall-E, on peut fabriquer une image de tout et n’importe quoi. » De même, c’est une bonne chose que ChatGPT soit sorti pour montrer qu’on est capable de faire du texte qui a l’air très vrai. Même si ça parle d’œufs de lapins, quelque chose qui n’existe pas, ça en parle très bien. Avec les « deepfake » (« hypertrucage »), on est capable de faire dire à Joe Biden de bombarder la Russie. C'est bien que les gens sachent ce qu’on est capable de faire avec ces technologies d’IA. Il faut qu’ils s’emparent du sujet et qu’ils comprennent de quoi on parle. Je crois que c’est ça l’enjeu.
Nicolas Sabouret est professeur en informatique à l’université Paris-Saclay et chercheur au Laboratoire interdisciplinaire des sciences du numérique (LISN-Univ). Il est l'auteur de Comprendre l’intelligence artificielle, publié chez Ellipses et co-auteur avec le philosophe Laurent Bibard de L’Intelligence artificielle n’est pas une question technologique ; échanges entre le philosophe et l’informaticien aux Éditions de l'Aube.
The First Year of AI College Ends in Ruin.
There’s an arms race on campus, and professors are losing.
One hundred percent AI. That’s what the software concluded about a student’s paper. One of the professors in the academic program I direct had come across this finding and asked me what to do with it. Then another one saw the same result—100 percent AI—for a different paper by that student, and also wondered: What does this mean? I did not know. I still don’t.
The problem breaks down into more problems: whether it’s possible to know for certain that a student used AI, what it even means to “use” AI for writing papers, and when that use amounts to cheating. The software that had flagged our student’s papers was also multilayered: Canvas, our courseware system, was running Turnitin, a popular plagiarism-detection service, which had recently installed a new AI-detection algorithm. The alleged evidence of cheating had emerged from a nesting doll of ed-tech black boxes.
This is college life at the close of ChatGPT’s first academic year: a moil of incrimination and confusion. In the past few weeks, I’ve talked with dozens of educators and students who are now confronting, for the very first time, a spate of AI “cheating.” Their stories left me reeling. Reports from on campus hint that legitimate uses of AI in education may be indistinguishable from unscrupulous ones, and that identifying cheaters—let alone holding them to account—is more or less impossible.
Once upon a time, students shared exams or handed down papers to classmates. Then they started outsourcing their homework, aided by the internet. Online businesses such as EssayShark (which asserts that it sells term papers for “research and reference purposes only”) have professionalized that process. Now it’s possible for students to purchase answers for assignments from a “tutoring” service such as Chegg—a practice that the kids call “chegging.” But when the AI chatbots were unleashed last fall, all these cheating methods of the past seemed obsolete. “We now believe [ChatGPT is] having an impact on our new-customer growth rate,” Chegg’s CEO admitted on an earnings call this month. The company has since lost roughly $1 billion in market value.
Other companies could benefit from the same upheaval. By 2018, Turnitin was already taking more than $100 million in yearly revenue to help professors sniff out impropriety. Its software, embedded in the courseware that students use to turn in work, compares their submissions with a database of existing material (including other student papers that Turnitin has previously consumed), and flags material that might have been copied. The company, which has claimed to serve 15,000 educational institutions across the world, was acquired for $1.75 billion in 2019. Last month, it rolled out an AI-detection add-in (with no way for teachers to opt out). AI-chatbot countermeasures, like the chatbots themselves, are taking over.
Now, as the first chatbot spring comes to a close, Turnitin’s new software is delivering a deluge of positive identifications: This paper was “18% AI”; that one, “100% AI.” But what do any of those numbers really mean? Surprisingly—outrageously—it’s very hard to say for sure. In each of the “100% AI” cases I heard about, students insisted that they had not let ChatGPT or any other AI tool do all of their work.
But according to the company, that designation does indeed suggest that 100 percent of an essay—as in, every one of its sentences—was computer generated, and, further, that this judgment has been made with 98 percent certainty. A Turnitin spokesperson acknowledged via email that “text created by another tool that uses algorithms or other computer-enabled systems,” including grammar checkers and automated translators, could lead to a false positive, and that some “genuine” writing can be similar to AI-generated writing. “Some people simply write very predictably,” she told me. Are all of these caveats accounted for in the company’s claims of having 98 percent certainty in its analyses?
Perhaps it doesn’t matter, because Turnitin disclaims drawing any conclusions about misconduct from its results. “This is only a number intended to help the educator determine if additional review or a discussion with the student is warranted,” the spokesperson said. “Teaching is a human endeavor.” The company has a guide for humans who confront the software’s “small” risk of generating false positives. Naturally, it recommends the use of still more Turnitin resources (an AI-misuse rubric and AI-misuse checklist are available) and doing more work than you ever would have done in the first place.
In other words, the student in my program whose work was flagged for being “100% AI” might have used a little AI, or a lot of AI, or maybe something in between. As for any deeper questions—exactly how he used AI, and whether he was wrong to do so—teachers like me are, as ever, on our own.
Some students probably are using AI at 100 percent: to complete their work absent any effort of their own. But many use ChatGPT and other tools to generate ideas, help them when they’re stuck, rephrase tricky paragraphs, or check their grammar.
Where one behavior turns into another isn’t always clear. Matthew Boedy, an English professor at the University of North Georgia, told me about one student so disengaged, he sometimes attended class in his pajamas. When that student submitted an uncharacteristically adept essay this spring, Boedy figured a chatbot was involved, and OpenAI’s verification tool confirmed as much. The student admitted that he hadn’t known how to begin, so he asked ChatGPT to write an introduction, and then to recommend sources. Absent a firm policy on AI cheating to lean on, Boedy talked through the material with the student in person and graded him based on that conversation.
A computer-science student at Washington University in St. Louis, where I teach, saw some irony in the sudden shift from giving fully open-book assignments earlier in the pandemic to this year’s attitude of “you can use anything except AI.” (I’m withholding the names of students so that they can be frank about their use of AI tools.) This student, who also works as a teaching assistant, knows firsthand that computers can help solve nearly every technical exercise that is assigned in CS courses, and some conceptual ones too. But taking advantage of the technology “feels less morally bankrupt,” he said, “than paying for Chegg or something.” A student who engages with a chatbot is doing some kind of work for themselves—and learning how to live in the future.
Another student I spoke with, who studies politics at Pomona College, uses AI as a way to pressure-test his ideas. Tasked with a research paper on colonialism in the Middle East, the student formulated a thesis and asked ChatGPT what it thought of the idea. “It told me it was bogus,” he said. “I then proceeded to debate it—in doing so, ChatGPT brought up some serious counterarguments to my thesis that I went on to consider in my paper.” The student also uses the bot to recommend sources. “I treat ChatGPT like a combination of a co-worker and an interested audience,” he said.
The Pomona student’s use of AI seems both clever and entirely aboveboard. But if he borrows a bit too much computer-generated language, Turnitin might still flag his work for being inauthentic. A professor can’t really know whether students are using ChatGPT in nuanced ways or whether they’ve engaged in brazen cheating. No problem, you might say: Just develop a relationship of mutual trust with students and discuss the matter with them openly. A good idea at first blush, but AI risks splitting faculty and student interests. “AI is dangerous in that it’s extremely tempting,” Dennis Jerz, a professor at Seton Hill University, in Greensburg, Pennsylvania, told me. For students who are not invested in their classes, the results don’t even have to be good—just good enough, and quick. “AI has made it much easier to churn out mediocre work.”
Faculty already fret over getting students to see the long-term benefit of assignments. Their task is only getting harder. “It has been so completely demoralizing,” an English teacher in Florida told me about AI cheating. “I have gone from loving my job in September of last year to deciding to completely leave it behind by April.” (I am not printing this instructor’s name or employer to protect him from job-related repercussions.) His assignments are typical of composition: thesis writing, bibliographies, outlines, and essays. But the teacher feels that AI has initiated an arms race of irrelevance between teachers and students. “With tools like ChatGPT, students think there’s just no reason for them to care about developing those skills,” he said. After students admitted to using ChatGPT to complete assignments in a previous term—for one student, all of the assignments—the teacher wondered why he was wasting his time grading automated work the students may not have even read. That feeling of pointlessness has infected his teaching process. “It’s just about crushed me. I fell in love with teaching, and I have loved my time in the classroom, but with ChatGPT, everything feels pointless.”
The loss that he describes is deeper and more existential than anything academic integrity can protect: a specific, if perhaps decaying, way of being among students and their teachers. “AI has already changed the classroom into something I no longer recognize,” he told me. In this view, AI isn’t a harbinger of the future but the last straw in a profession that was almost lost already, to funding collapse, gun violence, state overreach, economic decay, credentialism, and all the rest. New technology arrives on that grim shore, making schoolwork feel worthless, carried out to turn the crank of a machine rather than for teaching or learning.
What does this teacher plan to do after leaving education, I wonder, and then ask. But I should have known the answer, because what else is there: He’s going to design software.
A common line about education in the age of AI: It will force teachers to adapt. Athena Aktipis, a psychology professor at Arizona State University, has taken the opportunity to restructure her whole class, preferring discussions and student-defined projects to homework. “The students said that the class really made them feel human in a way that other classes didn’t,” she told me.
But for many students, college isn’t just a place for writing papers, and cutting corners can provide a different way of feeling human. The student in my program whose papers raised Turnitin’s “100% AI” flag told me that he’d run his text through grammar-checking software, and asked ChatGPT to improve certain lines. Efficiency seemed to matter more to him than quality. “Sometimes I want to play basketball. Sometimes I want to work out,” he said when I asked if he wanted to share any impressions about AI for this story. That may sound outrageous: College is for learning, and that means doing your assignments! But a milkshake of stressors, costs, and other externalities has created a mental-health crisis on college campuses. AI, according to this student, is helping reduce that stress when little else has.
Similar pressures can apply to teachers too. Faculty are in some ways just as tempted as their students by the power of the chatbots, for easing work they find irritating or that distract from their professional goals. (As I pointed out last month, the traditional recommendation letter may be just as threatened by AI as the college essay.) Even so, faculty are worried the students are cheating themselves—and irritated that they’ve been caught in the middle. Julian Hanna, who teaches culture studies at Tilburg University, in the Netherlands, thinks the more sophisticated uses of AI will mostly benefit the students who were already set to succeed, putting disadvantaged students even further at risk. “I think the best students either don’t need it or worry about being caught, or both.” The others, he says, risk learning less than before. Another factor to consider: Students who speak English as a second language may be more reliant on grammar-checking software, or more inclined to have ChatGPT tune up their sentence-level phrasing. If that’s the case, then they’ll be singled out, disproportionately, as cheats.
One way or another, the arms race will continue. Students will be tempted to use AI too much, and universities will try to stop them. Professors can choose to accept some forms of AI-enabled work and outlaw others, but their choices will be shaped by the software that they’re given. Technology itself will be more powerful than official policy or deep reflection.
Universities, too, will struggle to adapt. Most theories of academic integrity rely on crediting people for their work, not machines. That means old-fashioned honor codes will receive some modest updates, and the panels that investigate suspected cheaters will have to reckon with the mysteries of novel AI-detection “evidence.” And then everything will change again. By the time each new system has been put in place, both technology and the customs for its use could well have shifted. ChatGPT has existed for only six months, remember.
Rethinking assignments in light of AI might be warranted, just like it was in light of online learning. But doing so will also be exhausting for both faculty and students. Nobody will be able to keep up, and yet everyone will have no choice but to do so. Somewhere in the cracks between all these tectonic shifts and their urgent responses, perhaps teachers will still find a way to teach, and students to learn.