Politiques Sur l’Utilisation de l’Intelligence Artificielle (IA)

Attribution de l’IA

Les modèles de langage à grande échelle (Large Language Models - LLMs), tels que ChatGPT, ne répondent actuellement pas aux critères d’attribution d’auteur adoptés par la Revista de Ensino em Artes, Moda e Design. L’attribution d’auteur implique une responsabilité directe vis-à-vis du contenu publié, ce qui ne peut pas être correctement assuré lorsque des LLMs sont utilisés ou appliqués.

Utilisation de l’IA

L’utilisation d’un LLM doit être dûment documentée dans la section Méthodes du manuscrit. Si cette section n’est pas disponible, l’information doit être intégrée dans une autre partie appropriée, par exemple dans une section distincte après les considérations finales.
Toutefois, l’utilisation d’un LLM (ou d’un autre outil d’IA) à des fins d’édition de texte assistée par IA (AI-assisted copy editing) n’a pas besoin d’être déclarée. Par édition de texte assistée par IA, nous entendons des améliorations faites par une IA sur des textes générés par des humains, visant à optimiser la lisibilité et le style, tout en corrigeant les erreurs grammaticales, orthographiques, de ponctuation ou de ton. Ce processus peut inclure des modifications de rédaction ou de formatage, mais ne concerne ni la création autonome de contenu ni des travaux éditoriaux génératifs. L’édition assistée par IA exige que les auteurs assument la responsabilité du texte final et confirment que les ajustements reflètent leur travail original.


Utilisation de l’IA par les Évaluateurs

La revue par les pairs constitue un pilier fondamental de la publication scientifique. Les recommandations des évaluateurs permettent aux éditeurs de prendre des décisions éclairées et garantissent la validité, la rigueur et la fiabilité des recherches publiées. Les évaluateurs sont sélectionnés en fonction de leur expertise dans le domaine ou des méthodes nécessaires à l’évaluation. Dans ce cadre, les évaluateurs sont responsables de la précision et des opinions exprimées dans leurs rapports.
Bien que les outils d’IA générative aient évolué rapidement, ils présentent encore d’importantes limitations :
• Ces outils peuvent manquer de mises à jour ou produire des informations absurdes, biaisées ou incorrectes.
• Les manuscrits soumis peuvent contenir des données confidentielles ou propriétaires qui ne doivent pas être partagées en dehors du processus de révision.
Pour ces raisons, nous demandons aux évaluateurs de ne pas télécharger les manuscrits dans des outils d’IA générative.
Si une partie quelconque de l’évaluation a été effectuée à l’aide d’un outil d’IA, les évaluateurs doivent en déclarer l’usage de manière transparente dans leur rapport. Ils doivent spécifier dans la boîte de dialogue « Recommandations aux auteurs » toutes les informations relatives à l’utilisation de l’IA, y compris les commandes utilisées, et joindre des captures d’écran (screenshots) sous format PDF dans le formulaire d’évaluation.

Références
Intelligence artificielle (IA) et articles falsifiés [en ligne]. COPE : Committee on Publication Ethics. 2023 [consulté le 1er octobre 2024]. Disponible sur : [Lien]

Intelligence artificielle et attribution d’auteur [en ligne]. COPE : Committee on Publication Ethics. 2023 [consulté le 1er octobre 2024]. Disponible sur : [Lien]

Guide d’utilisation des outils et ressources d’intelligence artificielle dans la communication des recherches dans le réseau SciELO [en ligne]. SciELO. 2023 [consulté le 1er octobre 2024]. Disponible sur : [Lien]