Politiche Sull'Uso dell'Intelligenza Artificiale (IA)
Autorialità dell'IA
I modelli di linguaggio di grandi dimensioni (Large Language Models - LLMs), come ChatGPT, attualmente non soddisfano i nostri criteri di autorialità. È importante sottolineare che l’attribuzione dell'autoria implica la responsabilità per il lavoro, il che non può essere adeguatamente riconosciuto quando si utilizzano/applicano gli LLMs.
Uso dell'IA
L'uso di un LLM deve essere adeguatamente documentato nella sezione Metodi (e, se questa non è disponibile, deve essere documentato in un’altra sezione appropriata, come una sezione finale dopo le considerazioni finali) del manoscritto.
L’uso di un LLM (o di un altro strumento di IA) per la modifica assistita del testo (AI-assisted copy editing) non necessita di dichiarazione. In questo contesto, definiamo la AI-assisted copy editing come il miglioramento assistito da IA di testi scritti da esseri umani per migliorarne la leggibilità e lo stile, garantendo che siano privi di errori grammaticali, ortografici, di punteggiatura e di tono. Questo processo di miglioramento può includere modifiche alla formulazione e alla formattazione del testo; tuttavia, non implica la generazione autonoma di contenuti o attività editoriali creative. La modifica assistita da IA presuppone una responsabilità umana per la versione finale del testo e la conferma da parte degli autori che le modifiche riflettono il loro lavoro originale.
Uso dell'IA da parte dei revisori
La revisione tra pari è un pilastro fondamentale della pubblicazione scientifica. Le valutazioni e le raccomandazioni dei revisori ed esperti guidano gli editori nelle loro decisioni e garantiscono la validità, il rigore e l'affidabilità della ricerca pubblicata. Gli editori selezionano i revisori in base alla loro esperienza approfondita sull'argomento o sui metodi utilizzati nella valutazione. In questo contesto, i revisori sono principalmente responsabili dell’accuratezza e delle opinioni espresse nei loro rapporti. Il processo di revisione tra pari si basa su un principio di fiducia reciproca tra autori, revisori ed editori.
Nonostante i rapidi progressi, gli strumenti di IA generativa presentano ancora notevoli limitazioni: potrebbero non avere conoscenze aggiornate e generare informazioni inesatte, parziali o false. Inoltre, i manoscritti possono contenere informazioni riservate o proprietarie che non devono essere condivise al di fuori del processo di revisione tra pari. Per questi motivi, chiediamo ai revisori di non caricare i manoscritti su strumenti di IA generativa.
Se una parte della valutazione del manoscritto è stata supportata in qualche modo da uno strumento di IA, chiediamo ai revisori di dichiararne l’uso in modo trasparente nel rapporto di revisione tra pari. Il revisore deve indicare nella sezione "Raccomandazioni agli autori" tutte le informazioni relative all'uso dell'IA, specificando i comandi utilizzati e allegando screenshot dell'uso dell'IA in un documento PDF nel modulo di valutazione.
Riferimenti
Intelligenza artificiale (IA) e articoli falsi [online]. COPE: Committee on Publication Ethics. 2023 [consultato il 1° ottobre 2024]. Disponibile su: Link
Intelligenza artificiale e autorialità [online]. COPE: Committee on Publication Ethics. 2023 [consultato il 1° ottobre 2024]. Disponibile su: Link
Guida all'uso degli strumenti e delle risorse di Intelligenza Artificiale nella comunicazione delle ricerche nella rete SciELO [online]. SciELO 2023 [consultato il 1° ottobre 2024]. Disponibile su: Link