“AI辅助期刊同行评审的差异性与互补性研究”被国际期刊《Publications》录用并出版
摘 要:针对学术产出激增与审稿资源不足的矛盾,本文旨在评估大型语言模型(LLM)辅助同行评审的可行性,明确其能力边界与合理角色,为构建高效、公正的人机协同评审流程提供实证依据。本文以开放评审期刊PeerJ为数据源,构建包含493对人类专家评审与GPT-4o模拟评审的平行语料库,采用关键词共现网络、情感与主观性分析、句法复杂度与POS n-gram分布熵等方法,比较二者在认知范式、批评风格与主题覆盖上的差异。研究发现,AI与人类评审在功能上高度互补:人类强调整体性与社会化评估,AI则以摘要为基点进行锚定式