BlogPublié le 05.03.2025
Essai d’utilisation de deux outils d'IA pour aider la lecture-écriture académique : NotebookLM et Nouswise
Avec ses 300 millions d’utilisateurs actifs hebdomadaires (Prompt facile, 2025), ChatGPT est certainement le chatbot le plus utilisé. Toutefois, pour des tâches académiques, ChatGPT avait pendant longtemps un grand défaut : il ne citait pas ses sources. De ce fait, les réponses qu’il donne sont difficilement vérifiables. Plus globalement, elles sont également trop générales et pas si compatibles que cela avec ce qu’un travail académique demande :
- « For large language model AIs, generated content lacks any traceable link to existing scholarly sources, making it difficult to verify the accuracy of information (Figure 9). AI’s output tends to conform to general knowledge instead of producing professional and academic details, and even when it is completely making up non-existing information it could appear correct. » (Sun, 2024, p. 36)
- « After all, large language model AIs are not initially designed for academic source-based writing, so their functions are not compatible with the academic conventions of attributing sources. » (Sun, 2024, p. 36)
Pensons au travail à effectuer pour écrire une synthèse thématique ou un article scientifique, tâche importante dans la recherche et l’enseignement universitaire. Nous la considérons ici en pensant aux compétences nécessaires aujourd’hui pour les enseignant-e-s et étudiant-e-s : connaissance des tâches académiques de lecture et d’écriture, développement d’une argumentation basée sur des sources, connaissance et maîtrise des diverses possibilités d’aide des outils IA, esprit critique et éthique (Tarchi et al., 2024).
Un chatbot IA peut aider à analyser et/ou résumer rapidement les contenus des publications scientifiques que l’on utilise comme références. Mais il faut choisir correctement cet outil pour pouvoir distinguer facilement et avec précision, dans le résumé produit, ce qui a été paraphrasé par l’IA à partir des textes originaux (« machine-generated ») et les citations directes qu’il a extraites des publications (« source-based »). Notons que des outils AI se développent pour effectuer une telle détection dont le principe peut être résumé comme suit :
- « AI detection is about spotting machine-generated content by analyzing patterns, while source-based originality focuses on verifying authenticity by checking references and citations. » (Detecting-AI.com, 2025)
Propositions de solutions
Pour produire des résumés et synthèses d’articles avec une philosophie « source-based » académique, on peut utiliser ChatGPT couplé à des plugins comme le mentionne Sun : « Using the internet-connected version of ChatGPT together with plugins (e.g. AskYourPDF or ExplainPaper) may be more conducive to understanding scholarly texts, as they use content from known sources » (Sun, 2024, p. 36).
Nous n’avons pas essayé cette option mais d’autres outils. Nous avons commencé par vérifier lesquels permettaient d’aider notre tâche de travail, avec des possibilités de citation directe. Dans ce premier essai, nous utilisons uniquement la version gratuite de ces outils :
- Perplexity : fait des résumés-analyses à partir d’articles qu’il recherche ou qu’on lui fournit mais il ne donne pas de citation directe
- Consensus : fait des résumés-analyses à partir d’articles qu’il recherche mais pas qu’on lui fournit
- Elicit : fait des résumés (ou analyse à partir de questions) à partir d’articles qu’il recherche ou qu’on lui fournit et il peut donner des citations directes (NB : parfois, il produit des paraphrases… à creuser) mais on ne peut pas exporter le résultat
- NotebookLM : fait des résumés (ou analyse à partir de questions) à partir d’articles qu’on lui fournit et il peut donner des citations directes
- Nouswise : fait des résumés à partir d’articles (ou analyse à partir de questions) qu’on lui fournit et il peut donner des citations directes
Nous procédons donc à un deuxième essai plus poussé avec NotebookLM et Nouswise. Nous vous proposons ci-dessous quelques constatations et conseils pour les utiliser efficacement dans cette tâche de travail.
Lancement de l’analyse :
- Nous chargeons l’article à analyser dans l’outil IA sous la forme d’un fichier au format pdf. Les deux outils permettent aussi de faire une analyse en prenant plusieurs articles comme source.
- Nous lançons une analyse des contenus d’un article avec un « prompt » pour avoir une réponse précise. NotebookLM propose une fonction automatique « Briefing » qui génère une réponse générale mais celle-ci ne correspond pas forcément à l’analyse que l’on veut effectuer.
- NB: Nous utilisons la méthode du « meta-prompt » (Steiner, 2024) où on demande à un chatbot IA d’améliorer un prompt initial écrit auparavant (nous avons utilisé ChatGPT pour cela).
- Notre essai consiste à faire analyser un article par les deux outils IA en leur demandant de chercher 5 résultats-idées marquantes de l’article. Puis nous relisons nous-mêmes l’article et comparons ensuite les deux résultats. Nous faisons cela pour 5 articles différents.
Résultat obtenu : Les deux outils effectuent le travail demandé. On ne peut pas dire que l'un des deux outils est meilleur que l'autre dans ce travail. Nous notons plusieurs choses :
- Les analyses de contenu proposées par les deux outils sont correctes : nous avons vérifié que les idées principales de l’analyse produite par l’AI sont toutes dans l’article.
- De nombreuses idées retenues par un outil le sont également par l’autre. Mais les résumés-analyses proposés sont différents, en particulier à cause des paraphrases formulées par les deux outils.
- A investiguer : Un « prompt » plus restrictif peut-il forcer les outils d’IA à utiliser les termes employés dans un document ? (pour éviter des changements de sens)
- Citation directe : Les deux outils proposent une liste des cinq points demandés avec un titre et quelques lignes explicatives pour chacun d’entre eux. Des citations directes sont proposées dans des liens numérotés qui suivent l’explication. En cliquant dessus, on fait apparaître le passage de l’article qui a suscité le point retenu et on peut voir ce passage surligné dans l’article (Cf. copie d’écran).
- Soulignons que si l’article a une forme inhabituelle, on constate une baisse de qualité du résumé-analyse fait par l’IA. Par exemple, un article utilisé pour notre essai présente ses résultats dans deux listes (des usages de l’IA dans l’enseignement). Chaque liste correspond à un critère de choix et différentes icônes représentent les différents usages. Les résumés obtenus semblaient indiquer que les deux outils d’IA ont du mal à lire et comprendre ces informations.
Exportation et utilisation du résumé proposé par l’outil d’IA :
- Les deux outils permettent de copier le résumé-analyse produit. Toutefois, aucun des deux ne copie les citations en même temps. Si on veut exporter les citations, il faut les copier une par une.
- Pour éviter cela, on peut écrire un deuxième prompt demandant d’inclure ces citations dans la réponse donnée.
- Cependant, les deux outils proposent de mémoriser l’analyse produite dans une fiche. Celle proposée par Nouswise garde la réponse avec les citations ainsi qu’un lien vers un passage surligné dans l’article. Dans la fiche créée par NotebookLM, les citations disparaissent.
Pour s’informer et approfondir ces sujets :
- NotebookLM : https://notebooklm.google/
- Nouswise : https://nouswise.com/homepage
Références
Detecting-AI.com. (2025, janvier 20). AI Detection vs. Source-Based Originality. Detecting AI Blog. https://detecting-ai.com/blog/ai-detection-vs-source-based-originality
Prompt facile. (2025, janvier). Statistiques ChatGPT : +100 chiffres clés. https://promptfacile.fr/statistiques-chatgpt/
Steiner, T. (2024). Le prompt engineering comme vous ne l'avez encore jamais vu ! Cours HES-SO. https://www.youtube.com/watch?v=658E8SkolGY&list=PLZ5Ri5aSowtukezIs1Bg8u8pQrrd5VprV&index=5&t=2s
Sun, Q. (2024). Exploring Human-Generative AI Interaction in L2 Learners’ Source Use Practices : Issues, Trials, and Critical Reflections. Journal of Academic Writing, 14(1), Article 1. https://doi.org/10.18552/joaw.v14i1.1055
Tarchi, C., Zappoli, A., Casado Ledesma, L., & Brante, E. W. (2024). The Use of ChatGPT in Source-Based Writing Tasks. International Journal of Artificial Intelligence in Education. https://doi.org/10.1007/s40593-024-00413-1