研究表明,生成式人工智能在科學寫作中的應用非常廣泛,一些研究人員將其視爲一種有效的方法,但可能會對真正的研究和學術工作的本質構成威脅。

人工智能對科學寫作的影響力日益增強

學者們發現,與期刊和書籍等其他類型的寫作相比,人工智能寫作的數量相當可觀。這種基於語言學的分析表明,文本中通常與大型語言模型 (LLM) 相關的詞語(如“複雜”、“關鍵”和“細緻”)的使用量大幅增加。

倫敦大學學院的安德魯·格雷收集的數據顯示,2023年後,某些領域的論文中只有1%得到了人工智能的輔助。隨後,今年4月,斯坦福大學的另一項研究發現,根據研究主題的不同,有偏見的評論數量在6.3%到17.5%之間。

檢測人工智能的影響

語言測試和統計分析是將單詞或短語與 AI 輔助聯繫起來的工具之一。儘管修飾詞(如“紅色”、“結果”和“之後”)在 2023 年之前變化較小,但隨後與 LLM 生成內容相關的一些形容詞和副詞的使用開始激增。

具體來說,“一絲不苟”、“值得稱讚”和“複雜”等詞語的使用率增加了 117%,在 2022 年後達到最高水平。斯坦福大學的研究觀察到人工智能語言使用的變化,這表明人工智能語言在所有科學學科中的使用率都在不斷提高。

研究還顯示,人工智能語言歧視與人工智能採用的學科差異相一致。計算機科學和電氣工程等領域處於人工智能特許語言教學的前沿。然而,數學、物理學或自然等領域並沒有出現更劇烈的變化,而是出現了更爲保守的提升。

人工智能輔助學術寫作的道德挑戰

研究結果表明,作者在預印本方面更富有成果、研究領域競爭激烈、對短篇論文的興趣更濃厚,因此更傾向於使用人工智能輔助寫作。顯然,這種模式揭示了時間限制與人工智能生成內容導致的出版內容數量增加之間的假定關係。

人工智能一直是加快研究進程的關鍵推動因素。然而,當該技術用於各種任務(例如摘要和科學論文的其他部分)時,它仍然會引發道德問題。如果法學碩士的受僱代理人討論一篇他們不是唯一人類作者的科學論文,某些出版商會認爲這是抄襲,並且在某種程度上是不道德的。

避免人工智能生成的文本出現不準確之處(例如虛構的引文和例子)是學者交流的一個關鍵特徵,但必須做到透明和誠實。使用法學碩士驅動材料的作者必須讓讀者瞭解他們使用的研究方法,以保持研究的完整性和標準行爲。

隨着人工智能在學術寫作中的影響力日益增強,學術界的建設者面臨着解決倫理問題和確保研究論文可靠性的嚴峻挑戰。人工智能是一項偉大的技術,極大地促進了研究活動,但爲了維護科學的完整性,我們仍然應該保持誠實和正直。