Les bailleurs de fonds de la recherche conviennent d’une approche commune de l’IA générative dans les demandes de financement

Les bailleurs de fonds de la recherche conviennent d’une approche commune de l’IA générative dans les demandes de financement

Un groupe de principaux bailleurs de fonds de la recherche, dont Cancer Research UK, s’est mis d’accord sur une approche commune pour gérer l’utilisation des outils d’intelligence artificielle (IA) générative dans l’évaluation des demandes de financement.

Dans un déclaration Publié aujourd’hui, le groupe a clairement indiqué que les outils d’IA générative ne doivent pas être utilisés dans les demandes de subvention évaluées par les pairs. Si l’IA générative est utilisée dans d’autres contextes, comme la préparation de demandes de financement, elle doit être clairement citée et reconnue.

« L’intelligence artificielle apporte de nouvelles opportunités, mais aussi de nouveaux défis pour la recherche sur le cancer », a déclaré Dan Burkwood, directeur des opérations de recherche et des communications chez Cancer Research UK.

« Il est important de garantir que nous soyons transparents quant à l’utilisation des outils d’IA générative, en évitant les éventuels problèmes juridiques et éthiques qui peuvent découler de leur utilisation.

« Notre processus de demande de subvention s’appuie sur un examen par les pairs d’experts dans le domaine, fournissant ainsi des commentaires solides sur le mérite scientifique. Les outils d’IA générative présentent plusieurs risques pour ce processus.

« Cela pourrait compromettre la confidentialité, mettre en péril la propriété intellectuelle et, à terme, saper la confiance dans le processus d’évaluation par les pairs. C’est pourquoi nous agissons maintenant. »

Des normes cohérentes

La déclaration a été adoptée en réponse à la montée en puissance des outils d’IA générative tels que ChatGPT, qui permettent de créer de grandes sections de texte et d’images de type humain à partir d’invites.

Les outils d’IA générative peuvent être utiles dans certaines situations, comme aider les chercheurs neurodivergents et réduire les barrières linguistiques.

Mais il existe des risques que cela compromette la confidentialité et l’intégrité de la recherche s’il est utilisé pour rédiger des commentaires d’évaluation par les pairs.

La déclaration établit des normes cohérentes sur les outils d’IA générative dans les demandes de financement et l’évaluation dans les organismes de financement de la recherche au Royaume-Uni.

Les signataires de la déclaration sont membres du Groupe de politique des bailleurs de fonds de la recherche et comprennent l’Association of Medical Research Charities, Cancer Research UK, le National Institute of Health and Care Research, la British Heart Foundation, la Royal Academy of Engineering, la Royal Society, UK Research and Innovation et le Wellcome Trust.

« Cette position collective définit nos attentes de haut niveau quant à la manière dont nous espérons équilibrer les opportunités que l’IA pourrait apporter aux chercheurs tout en garantissant que la recherche que nous finançons est menée de manière responsable », a déclaré Alyson Fox, directrice du financement de la recherche chez Wellcome.

« Nous continuerons de surveiller et d’évaluer cette approche à mesure que nous élaborons nos propres politiques de financement détaillées. »

S’adapter à un paysage en constante évolution

Cancer Research UK a a publié sa politique complète sur l’utilisation d’outils d’IA générative dans les demandes de financement – ​​le premier organisme de recherche médicale à le faire. La politique stipule que l’IA générative ne doit pas être utilisée dans le cadre d’un examen par les pairs. Il exhorte les chercheurs à faire preuve de prudence s’ils l’utilisent pour préparer des demandes de financement, en reconnaissant pleinement le logiciel et les invites utilisés.

« L’IA change tous les aspects de la façon dont nous concevons et menons la recherche », a ajouté Burkwood.

« Nous mettons dès maintenant notre politique en place et travaillons en collaboration avec d’autres bailleurs de fonds, afin de pouvoir nous adapter aux développements technologiques rapides de l’IA. »

Un groupe de principaux bailleurs de fonds de la recherche, dont Cancer Research UK, s’est mis d’accord sur une approche commune pour gérer l’utilisation des outils d’intelligence artificielle (IA) générative dans l’évaluation des demandes de financement.

Dans un déclaration Publié aujourd’hui, le groupe a clairement indiqué que les outils d’IA générative ne doivent pas être utilisés dans les demandes de subvention évaluées par les pairs. Si l’IA générative est utilisée dans d’autres contextes, comme la préparation de demandes de financement, elle doit être clairement citée et reconnue.

« L’intelligence artificielle apporte de nouvelles opportunités, mais aussi de nouveaux défis pour la recherche sur le cancer », a déclaré Dan Burkwood, directeur des opérations de recherche et des communications chez Cancer Research UK.

« Il est important de garantir que nous soyons transparents quant à l’utilisation des outils d’IA générative, en évitant les éventuels problèmes juridiques et éthiques qui peuvent découler de leur utilisation.

« Notre processus de demande de subvention s’appuie sur un examen par les pairs d’experts dans le domaine, fournissant ainsi des commentaires solides sur le mérite scientifique. Les outils d’IA générative présentent plusieurs risques pour ce processus.

« Cela pourrait compromettre la confidentialité, mettre en péril la propriété intellectuelle et, à terme, saper la confiance dans le processus d’évaluation par les pairs. C’est pourquoi nous agissons maintenant. »

Des normes cohérentes

La déclaration a été adoptée en réponse à la montée en puissance des outils d’IA générative tels que ChatGPT, qui permettent de créer de grandes sections de texte et d’images de type humain à partir d’invites.

Les outils d’IA générative peuvent être utiles dans certaines situations, comme aider les chercheurs neurodivergents et réduire les barrières linguistiques.

Mais il existe des risques que cela compromette la confidentialité et l’intégrité de la recherche s’il est utilisé pour rédiger des commentaires d’évaluation par les pairs.

La déclaration établit des normes cohérentes sur les outils d’IA générative dans les demandes de financement et l’évaluation dans les organismes de financement de la recherche au Royaume-Uni.

Les signataires de la déclaration sont membres du Groupe de politique des bailleurs de fonds de la recherche et comprennent l’Association of Medical Research Charities, Cancer Research UK, le National Institute of Health and Care Research, la British Heart Foundation, la Royal Academy of Engineering, la Royal Society, UK Research and Innovation et le Wellcome Trust.

« Cette position collective définit nos attentes de haut niveau quant à la manière dont nous espérons équilibrer les opportunités que l’IA pourrait apporter aux chercheurs tout en garantissant que la recherche que nous finançons est menée de manière responsable », a déclaré Alyson Fox, directrice du financement de la recherche chez Wellcome.

« Nous continuerons de surveiller et d’évaluer cette approche à mesure que nous élaborons nos propres politiques de financement détaillées. »

S’adapter à un paysage en constante évolution

Cancer Research UK a a publié sa politique complète sur l’utilisation d’outils d’IA générative dans les demandes de financement – ​​le premier organisme de recherche médicale à le faire. La politique stipule que l’IA générative ne doit pas être utilisée dans le cadre d’un examen par les pairs. Il exhorte les chercheurs à faire preuve de prudence s’ils l’utilisent pour préparer des demandes de financement, en reconnaissant pleinement le logiciel et les invites utilisés.

« L’IA change tous les aspects de la façon dont nous concevons et menons la recherche », a ajouté Burkwood.

« Nous mettons dès maintenant notre politique en place et travaillons en collaboration avec d’autres bailleurs de fonds, afin de pouvoir nous adapter aux développements technologiques rapides de l’IA. »