Gli editori di migliaia di riviste scientifiche hanno vietato o limitato l’uso da parte dei contributori di un chatbot avanzato basato sull’intelligenza artificiale col timore che potesse arricchire la letteratura accademica con ricerche imperfette e persino inventate.
ChatGPT, un chatbot fluido ma instabile sviluppato da OpenAI in California, ha impressionato e divertito più di un milione di utenti snocciolando poesie, racconti, saggi e persino consigli personali sin dal suo lancio a novembre 2022.
Ma oltre ad essere un enorme fonte di divertimento, il programma può anche produrre falsi abstract scientifici, così convincenti e affidabili da ingannare i revisori umani. L’utilizzo di ChatGPT nella preparazione di articoli scientifici ha già portato questo sistema di intelligenza artificiale ad essere accreditato come coautore su una manciata di articoli.
Il suo debutto improvviso ha provocato una rissa tra gli editori per far fronte a questa marea di speculazioni legate al suo utilizzo. La scorsa settimana, Holden Thorp, caporedattore della principale rivista statunitense, Science, ha annunciato una nuova politica editoriale, vietando l’uso di testi elaborati da ChatGPT e chiarendo che il programma non può essere elencato come autore.
“Dato il trambusto che si è accumulato attorno a questo tema, è una buona idea rendere assolutamente esplicito che non permetteremo a ChatGPT di essere un autore o che il suo testo venga utilizzato nelle riviste”, ha affermato Thorp.
Le principali riviste scientifiche richiedono agli autori di firmare un modulo in cui dichiarano di essere responsabili del loro contributo al lavoro. Poiché ChatGPT non può farlo, non può essere un autore, spiega Thorp.
Ma anche usare ChatGPT nella preparazione di un documento è problematico.
ChatGPT commette molti errori, che potrebbero trovare il modo di finire nella letteratura, e se gli scienziati fanno affidamento sui programmi di intelligenza artificiale per preparare revisioni della letteratura o riassumere i dati relativi alle loro ricerche, il contesto appropriato del lavoro e il controllo approfondito che i risultati meritano potrebbero perdersi. “Questa è la direzione opposta a quella verso cui dobbiamo andare”, ha detto.
Altri editori hanno fatto modifiche simili. Sempre la scorsa settimana, Springer-Nature, che pubblica quasi 3000 riviste, ha aggiornato le sue linee guida per dichiarare che ChatGPT non può essere elencato come autore. Ma l’editore non ha bandito ChatGPT a titolo definitivo. Lo strumento, e altri simili, possono ancora essere utilizzati nella preparazione di documenti, a condizione che tutti i dettagli siano esplicitati nell’articolo sottomesso.
“Lo sviluppo specifico a cui sentivamo di dover rispondere con forza era il fatto che praticamente all’improvviso lo strumento appariva come coautore”, ha spiegato Magdalena Skipper, caporedattore di Nature.
Con i giusti controlli Skipper ritiene che ChatGPT e simili strumenti di intelligenza artificiale potrebbero essere utili per la scienza, non da ultimo nel livellare il “playing field” per i non madrelingua inglese che potrebbero utilizzare i programmi di intelligenza artificiale per rendere più fluente la lingua nei loro documenti.
Elsevier, che pubblica circa 2800 riviste, tra cui Cell e Lancet, ha assunto una posizione simile a Springer-Nature. Le sue linee guida consentono l’uso di strumenti di intelligenza artificiale “per migliorare la leggibilità e il linguaggio dell’articolo di ricerca, ma non per sostituire i compiti chiave che dovrebbero essere svolti dagli autori, come interpretare i dati o trarre conclusioni scientifiche”, ha commentato Andrew Davis di Elsevier, aggiungendo che gli autori devono dichiarare se e come hanno utilizzato strumenti di intelligenza artificiale.
Michael Eisen, caporedattore di eLife, ha detto che ChatGPT non poteva essere un autore, ma ha visto la sua adozione come inevitabile. “Penso che la domanda migliore non sia se consentirlo, ma come gestire il fatto che venga utilizzato”. “La cosa più importante, almeno per ora, è che gli autori siano molto sinceri riguardo al suo utilizzo e descrivano come è stato utilizzato, e per noi essere chiari sul fatto che, utilizzando lo strumento, si assumono la responsabilità del suo output”.
Sandra Wachter, professore di tecnologia e regolamentazione presso l’Università di Oxford, ha dichiarato: “È bello vedere gli editori impegnarsi per regolamentare l’utilizzo dell’Intelligenza artificiale nella letteratura scientifica. ChatGPT non è una macchina perfetta e questo è particolarmente preoccupante se il contenuto utilizzato ai fini scientifici non viene rigorosamente ricontrollato. Questo può portare a disinformazione e scienza spazzatura. Penso che molti altri settori come l’istruzione, l’arte e il giornalismo dovranno pensare a passi simili, perché stanno affrontando sfide simili”.
Tuttavia, non tutto il “male” (se effettivamente di questo di tratta…) viene per nuocere.
Secondo Luca De Fiore (che ne scrive su Senti chi parla), editore del Pensiero Scientifico – per quanto l’intelligenza artificiale possa essere usata per imbrogliare le carte o falsificare la ricerca – è del tutto probabile che proprio lei possa essere la migliore alleata dei cacciatori di frodi e della cattiva condotta dei ricercatori.
Raffaele Giusti
UOC Oncologia Medica
Azienda Ospedaliero Universitaria Sant’Andrea, Roma.
Letture consigliate:
Gordijn B, Have HT. ChatGPT: evolution or revolution? Med Health Care Philos. 2023 Jan 19. doi: 10.1007/s11019-023-10136-0. Epub ahead of print. PMID: 36656495.
Graham F. Daily briefing: Will ChatGPT kill the essay assignment? Nature. 2022 Dec 12. doi: 10.1038/d41586-022-04437-2. Epub ahead of print. PMID: 36517680.
King MR; chatGPT. A Conversation on Artificial Intelligence, Chatbots, and Plagiarism in Higher Education. Cell Mol Bioeng. 2023 Jan 2;16(1):1-2. doi: 10.1007/s12195-022-00754-8. PMID: 36660590; PMCID: PMC9842816.
Looi MK. Sixty seconds on . . . ChatGPT. BMJ. 2023 Jan 26;380:p205. doi: 10.1136/bmj.p205. PMID: 36702491.
O’Connor S, ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Educ Pract. 2023 Jan;66:103537. doi: 10.1016/j.nepr.2022.103537. Epub 2022 Dec 16. PMID: 36549229.
Stokel-Walker C. AI bot ChatGPT writes smart essays – should professors worry? Nature. 2022 Dec 9. doi: 10.1038/d41586-022-04397-7. Epub ahead of print. PMID: 36494443.
Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature. 2023 Jan;613(7945):620-621. doi: 10.1038/d41586-023-00107-z. PMID: 36653617.
Thorp HH. ChatGPT is fun, but not an author. Science. 2023 Jan 27;379(6630):313. doi: 10.1126/science.adg7879. Epub 2023 Jan 26. PMID: 36701446.
Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. 2023 Jan;613(7945):612. doi: 10.1038/d41586-023-00191-1. PMID: 36694020.