SIHMA

Ricerca sulla migrazione umana attraverso l'Africa.

Caricamento in corso, attendere prego...

Politica IA di AHMR

Gli strumenti di Intelligenza Artificiale (IA) e i modelli linguistici di grandi dimensioni (LLM) hanno avuto un rapido impatto su vari settori, inclusa la ricerca accademica e la pubblicazione. Man mano che le tecnologie di IA progrediscono, aumentano anche le potenzialità e le sfide associate alla loro applicazione. Queste linee guida delineano come gli strumenti e le tecnologie di IA possono essere utilizzati per supportare il processo di scrittura degli articoli pubblicati nell'African Human Mobility Review. L'uso delle tecnologie di IA nella scrittura accademica deve aderire ai principi di integrità, trasparenza e riservatezza, allineandosi alle pratiche etiche nella ricerca e nella pubblicazione che promuovono l'integrità scientifica. L'uso di strumenti di IA per pratiche non etiche, come il plagio tramite IA e la fabbricazione di dati, deve essere rigorosamente evitato.

La Politica IA della rivista sarà aggiornata regolarmente per tenere conto dei nuovi sviluppi nelle migliori pratiche editoriali, nelle questioni etiche e negli standard accademici. Queste revisioni garantiscono che le nostre linee guida continuino ad essere complete e applicabili, in accordo con le mutevoli esigenze della comunità di ricerca.

L'AFRICAN HUMAN MOBILITY REVIEW (AHMR), come regola generale, segue le Linee guida ASSAf e SciELO per l'uso di strumenti e risorse di Intelligenza Artificiale (IA) nella comunicazione della ricerca.

Autori

Gli autori devono dichiarare l'uso di strumenti di IA generativa nella loro ricerca e nella preparazione del manoscritto (ad es. analisi dei dati, revisione della letteratura o stesura del manoscritto, ecc.) nella sezione metodologica. Non è necessario segnalare l'uso di strumenti di IA per scopi di correzione di bozze ed editing. Il contenuto generato da strumenti di IA deve essere citato e referenziato utilizzando un formato generale per la citazione di software. In tutti i casi, gli strumenti di IA devono aderire ai principi etici enunciati nelle linee guida della rivista per l'uso etico. L'IA, i modelli linguistici di grandi dimensioni (LLM), come ChatGPT, o qualsiasi tecnologia simile, non possono essere elencati come autori o co-autori. Gli autori sono gli unici responsabili dell'intero contenuto del loro manoscritto, inclusa la verifica di qualsiasi informazione generata dall'IA per garantirne accuratezza e affidabilità.

Redattori

I redattori devono aderire agli standard editoriali e alle migliori pratiche, proteggendo la riservatezza del lavoro di ogni autore e trattando tutti gli autori con equità, obiettività, onestà e trasparenza. L'uso di manoscritti in sistemi di IA generativa può comportare rischi relativi alla violazione dei dati e dei diritti di proprietà, alla riservatezza e ad altre questioni. Ai redattori è quindi vietato caricare manoscritti non pubblicati su strumenti di IA.

Revisori paritari

I revisori paritari svolgono un ruolo vitale nel sostenere gli standard dell'editoria accademica e a loro vengono affidati manoscritti non pubblicati. Pertanto, i revisori non devono caricare manoscritti non pubblicati su strumenti di IA generativa per proteggere la riservatezza dell'autore. I revisori possono utilizzare strumenti di IA per supportare il processo di revisione in aree specifiche come la sintesi del manoscritto, l'identificazione di lacune nella ricerca, il reperimento di letteratura correlata e il rilevamento di problemi etici. Tuttavia, la decisione finale nella revisione paritaria non può essere automatizzata e deve essere basata sul giudizio umano, poiché l'IA può produrre contenuti inesatti, incompleti e distorti. I revisori saranno sempre responsabili del mantenimento dell'integrità e della correttezza delle loro revisioni.