Depuis la mise à disposition du chatbot ChatGPT en 2022, une discussion animée a eu lieu, en particulier dans le domaine de la didactique et de l'éducation aux médias, sur les conclusions à tirer (Baidoo-Anu & Owusu Ansah, 2023) du fait de laisser les étudiants accomplir des tâches par l'intermédiaire du chatbot. Dans cet article, nous allons tourner cette idée d'un point de vue éthique. En effet, la véracité de l'auteur, mais aussi la véracité et l'exactitude de la source sont des exigences éthiques en matière d'information. Par conséquent, l'auteur est tenu de rendre compte de la qualité des sources. Toutefois, la réalisation de cette exigence est liée à une compétence explicite, en l'occurrence la maîtrise de l'information. Lors de l'utilisation de moteurs d'écriture autonomes, cependant, cette compétence est partagée : L'utilisateur de ces machines n'applique généralement pas sa maîtrise de l'information et laisse la responsabilité de la source à l'IA. Cette délégation de la maîtrise de l'information ne peut réussir que si la machine possède elle-même la maîtrise de l'information. Cela a des conséquences éthiques en matière d'information pour l'utilisation et le développement de cette technologie : les machines à écrire autonomes doivent posséder la maîtrise de l'information pour trouver de manière utile et efficace des informations qu'elles ont été formées à utiliser, par exemple sur l'internet, en fonction d'une tâche ou d'une question donnée, et ensuite les combiner en fonction de la tâche ou de la question donnée.
Imaginons que les machines de ce type, comme le ChatGPT, se multiplient, voire se généralisent à l'avenir. Les applications créant des rapports de recherche ou des rapports journalistiques sont déjà une réalité aujourd'hui (Pavlik, 2023). À l'avenir, les machines rechercheront de manière autonome des informations en ligne pour traiter des requêtes multiples. Il est important de se rappeler que l'on peut trouver sur le web non seulement des informations correctes et à jour, mais aussi des sources intentionnellement ou accidentellement incorrectes, tendancieuses ou falsifiées. La vérification constante de la véracité et de la fiabilité des sources fait partie d'une bonne maîtrise de l'information. Si la vieille expression "une pomme pourrie gâche tout le tonneau" est vraie, alors la capacité à distinguer les bonnes pommes des mauvaises est une compétence essentielle en matière d'information. Après tout, si les machines autonomes de plus en plus utilisées s'emparent de pommes pourries et les intègrent dans leurs textes, non seulement ces textes deviendront pourris et erronés, mais le réseau lui-même sera infesté par cette pourriture puisque, en raison de la numérisation croissante, les textes des machines seront de plus en plus présents.
Ce document examine les exigences éthiques en matière d'information qui doivent être imposées à la conception, à la programmation et à l'utilisation des machines à écrire autonomes afin qu'elles puissent elles-mêmes rechercher activement et éviter les pommes pourries. Il ne s'agit pas de technologie, mais plus fondamentalement d'exigences explicitement normatives concernant le développement et l'utilisation des machines à écrire autonomes.
Références
- Baidoo-Anu, D., & Owusu Ansah, L. (2023). Education in the era of generative artificial intelligence (AI): Understanding the potential benefits of ChatGPT in promoting teaching and learning. Retrieved February 14, 2023 from https://ssrn.com/abstract=4337484
- Pavlik, J. V. (2023). Collaborating with ChatGPT: Considering the implications of generative artificial intelligence for journalism and media education. Journalism & Mass Communication Educator,78(1). https://doi.org/10.1177/10776958221149577
Matthias Otto Rath
Université d'éducation de Ludwigsburg, Allemagne