Políticas Sobre Uso De Inteligência Artificial (IA)
Autoria de IA
Modelos de linguagem de grande escala (Large Language Models - LLMs), como o ChatGPT, atualmente não atendem aos nossos critérios de autoria. Cabe informar que a atribuição de autoria implica a responsabilização pelo trabalho, o que não pode ser devidamente creditado ao usar/aplicar LLMs.
Uso de IA
O uso de um LLM deve ser devidamente documentado na seção Métodos (e, se na seção Métodos não estiver disponível, deve ser documentado em uma parte alternativa adequada, podendo ser declarado em uma última seção após as considerações finais) do manuscrito.
O uso de um LLM (ou outra ferramenta de IA) para fins de edição de texto assistida por IA (“AI-assisted copy editing”) não precisa ser declarado. Neste contexto, definimos o termo “AI-assisted copy editing” como melhorias assistidas por IA em textos gerados por humanos para legibilidade e estilo, garantindo que os textos estejam livres de erros de gramática, ortografia, pontuação e tom. Este processo de melhoria pode incluir alterações de redação e formatação nos textos; contudo, não envolve trabalho editorial generativo ou criação autônoma de conteúdo. A edição de texto assistida por IA implica haver responsabilidade humana pela versão final do texto, bem como a concordância dos autores de que as edições refletem seu trabalho original.
Uso de IA por avaliadores por pares
A revisão por pares é um pilar central na publicação científica. A avaliação e as recomendações dos avaliadores e especialistas orientam os editores em suas decisões e salvaguardam a validade, rigor e confiabilidade da pesquisa publicada. Os editores selecionam os revisores com base em seu profundo conhecimento sobre o assunto ou sobre os métodos utilizados para realização da avaliação. Neste contexto, os revisores são responsáveis, principalmente, pela precisão e pelas opiniões expressas em seus relatórios. O processo de revisão por pares opera sob um princípio de confiança mútua entre autores, revisores e editores.
Apesar do rápido progresso, as ferramentas de IA generativas têm limitações consideráveis: elas podem não ter conhecimento atualizado, podendo produzir informações absurdas, tendenciosas ou falsas. Os manuscritos também podem incluir informações confidenciais ou proprietárias que não devem ser compartilhadas fora do processo de revisão por pares. Por essas razões, pedimos que os avaliadores não carreguem manuscritos em ferramentas de IA generativas.
Se qualquer parte da avaliação do manuscrito foi de alguma forma apoiada por uma ferramenta de IA, pedimos aos avaliadores que declarem o uso de tais ferramentas de forma transparente no relatório de revisão por pares. O avaliador/parecerista deve declarar na caixa de diálogo “Recomendações ao(s) autor(es)” exatamente todas as informações referentes ao uso de IA informando os comandos utilizados e anexando prints do uso da IA em documento PDF no formulário avaliativo.
Referências
Inteligência artificial (IA) e artigos falsos [online]. COPE: Committee on Publication Ethics. 2023 [visualizado em 01 de outubro de 2024]. Disponível em: Link
Inteligência artificial e autoria [online]. COPE: Committee on Publication Ethics. 2023 [visualizado em 01 de outubro de 2024]. Disponível em: Link
Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO [online]. SciELO 2023 [visualizado em 01 de outubro de 2024] Disponível em: Link