ChatGPT et d'autres logiciels et outils d'intelligence artificielle (IA) sont déjà en train de changer le monde. ChatGPT peut réussir un examen de MBA d'une institution de l'Ivy League (Terwiesch, 2023). Il peut également créer de la désinformation sur des sujets tels que "les vaccins, le COVID-19, l'insurrection du 6 janvier 2021 au Capitole des États-Unis, l'immigration et le traitement par la Chine de sa minorité ouïghoure" (Associated Press, 2023). Les IA actuelles ont la capacité de fournir des informations apparemment valables mais qui sont en fait sans rapport avec la réalité.
Prenons l'exemple d'un acteur étatique qui utilise un modèle de propagande tirant parti du fait que "la surcharge d'informations incite les gens à prendre des raccourcis" pour décider de la fiabilité des informations (Rand, 2016). Les nouveaux systèmes d'IA peuvent, à moindre coût et plus facilement que jamais, créer des informations plausibles, mais en fin de compte fausses, sur les choix en matière de soins de santé ou sur un candidat politique. Il n'est pas difficile d'imaginer un déluge de fausses informations ou de désinformations qui rendrait extrêmement difficile, long et coûteux le tri entre ce qui est vrai, ce qui l'est à peu près et ce qui est manifestement faux.
Les théoriciens et les praticiens de la maîtrise de l'information sont particulièrement bien placés pour mener et faciliter des discussions importantes sur ces sujets, car ils ont des implications réelles pour les soins de santé, l'éducation et la démocratie. Pourtant, la théorie, les pratiques et les recherches actuelles en matière de maîtrise de l'information ne permettent pas de relever les défis posés par les nouveaux développements de l'IA. En conséquence, ce document conceptuel identifiera trois domaines spécifiques dans lesquels les professionnels de l'IL peuvent consacrer du temps et des ressources pour résoudre certains de ces problèmes.
Tout d'abord, nous pouvons plaider en faveur de nouveaux types de systèmes d'IA conçus avec des limites et des paramètres spécifiques. De même, nous pouvons faire avancer la recherche sur l'IA explicable (XAI) qui vise à aider les utilisateurs à "comprendre, faire confiance et gérer" les applications d'IA (Gunning et al., 2019). Deuxièmement, nous devons reconsidérer l'enseignement de la VA et de l'enseignement supérieur à la lumière de la nouvelle capacité des étudiants à créer facilement des textes générés par l'IA. L'adoption intentionnelle de certains éléments des outils d'IA pourrait conduire à une innovation pédagogique débouchant sur de nouvelles façons d'enseigner et d'apprendre, y compris de nouvelles stratégies pour passer au crible une énorme quantité de contenu généré par l'IA et dont la véracité est inconnue. Enfin, les professionnels de l'information ont la possibilité d'affiner ou d'élaborer une théorie de l'IL susceptible de fournir une réflexion et une justification holistiques et stratégiques sur la manière dont les éducateurs, les décideurs et le grand public devraient traiter et aborder les systèmes d'IA.
L'avenir de l'IA est incertain. Ce qui est clair, c'est que si nous ne réfléchissons pas intentionnellement à la manière dont nous concevons et utilisons ces systèmes, nous nous exposons à des conséquences graves, et probablement délétères.
Références
- Terwiesch, C. (2023). Would chat GPT get a Wharton MBA? A prediction based on its performance in the operations management course. Mack Institute for Innovation Management at the Wharton School, University of Pennsylvania. Retrieved February 1, 2023 from https://mackinstitute.wharton.upenn.edu/wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP-1.24.pdf
- Associated Press. (2023). Learning to lie: AI tools adept at creating disinformation. Retrieved February 1, 2023 from https://www.usnews.com/news/us/articles/2023-01-24/learning-to-lie-ai-tools-adept-at-creating-disinformation
- Paul, C., & Matthews, M. (2016). The Russian “Firehose of Falsehood” propaganda model: Why it might work and options to counter it. RAND Corporation. Retrieved February 1, 2023 from https://www.rand.org/content/dam/rand/pubs/perspectives/PE100/PE198/RAND_PE198.pdf
- Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., & Yang, G.-Z. (2019). XAI—Explainable artificial intelligence. Science Robotics, 4. https://doi.org/10.1126/scirobotics.aay7120
Michael Ryne Flierl
Université de l'État de l'Ohio, Columbus, États-Unis