1.ai生成技术
作者团队:早稻田大学博士生 / 蒙特利尔工程学院访问研究员程浩伟(通讯作者),特尔科姆大学助理教授 Jati H. Husen,早稻田大学博士生芦一均,东北大学副教授 / JAIST 客座教授 Teeradaj Racharak,早稻田大学教授 / QAML 株式会社 CEO 吉岡信和,九州大学名誉教授鵜林尚靖,早稻田大学教授鷲崎弘宜。
2.基于ai的生成器
在软件开发领域,需求工程(Requirements Engineering, RE)一直是项目成功的关键环节然而,传统 RE 方法面临着效率低下、需求变更频繁等挑战根据 Standish Group 的报告,仅有 31% 的软件项目能在预算和时间内完成,而需求相关问题导致的项目失败率高达 37%。
3.生成式设计
随着 ChatGPT 等大语言模型的爆发式发展,生成式 AI(GenAI)为需求工程带来了前所未有的机遇来自早稻田大学、东北大学等机构的研究团队,对 2019 年至 2025 年间发表的 238 篇相关论文进行了系统性文献综述,为我们揭示了这一新兴领域的全貌。

4.生成式模型有哪些
论文标题:Generative AI for Requirements Engineering: A Systematic Literature Review论文地址:https://onlinelibrary.wiley.com/doi/10.1002/spe.70029
5.生成器模式将一个复杂对象的构建与表示分离
这是目前为止对生成式 AI 在需求工程领域最系统、最全面的文献综述,揭示了从技术到落地的全貌与未来路线,是理解「GenAI 如何重塑软件开发起点」的必读论文研究现状:快速增长但分布不均爆发式的研究热度数据显示,GenAI 在需求工程领域的研究呈现指数级增长:
6.生成模式包括四个方面
2022 年仅有 4 篇相关论文;2023 年激增至 23 篇;2024 年达到 113 篇;2025 年前 5 个月已有 97 篇。

7.ai智能生成器
Distribution of papers across years (N=238).这种增长轨迹充分反映了 ChatGPT 发布后,学术界对 GenAI 应用于 RE 领域的浓厚兴趣研究聚焦点的失衡。
尽管研究热度高涨,但不同 RE 阶段受到的关注度严重失衡:需求分析占据 30.0% 的研究比重,位居首位;需求获取和需求规约各占 22.1%;需求验证占 19.0%;需求管理仅占 6.8%,严重缺乏关注。
这种分布反映出当前研究主要集中在 GenAI 擅长的文本分析和生成任务,而对需求管理等涉及复杂社会技术因素的阶段探索不足。

Distribution of RE phases (N=238).GenAI 在 RE 领域已进入「快速扩张但尚未成熟」的阶段,研究数量暴涨但深度不足,仍停留在「概念验证」层面技术图景:GPT 主导下的同质化困境。
模型选择的单一化研究发现,67.3% 的研究采用 GPT 系列模型,其中:GPT-4 系列占 36.7%,主要应用于复杂需求分析;GPT-3.5 系列占 25.3%,在常规分类任务中表现良好;开源替代方案
(如 LLaMA、CodeLlama)仅占 11.6%这种过度依赖单一模型家族的现象,限制了多样化技术路径的探索值得注意的是,CodeLlama 在代码 – 需求追溯任务中表现出色,幻觉率比通用模型低 23%,但采用率仍然很低。

Distribution of GenAI models (N=238).提示工程的实践模式在提示工程方面,研究呈现出以下特点:指令式提示占 62.2%,反映 RE 任务的高度结构化特性;少样本学习占 43.6%,成为最受欢迎的学习范式;
零样本学习占 37.7%,适用于相对简单的 RE 任务;思维链(CoT)方法仅占 14.0%,采用率相对较低。令人欣慰的是,超过 80% 的研究公开了提示词细节,这为研究的可复现性奠定了基础。

Distribution of learning paradigm (N=238).

Distribution of prompt types (N=238).质量关注的偏颇在软件质量特性方面,当前研究呈现明显的短期导向:功能适用性获得最多关注(124 次提及);可靠性次之(80 次);
安全性仅被提及 39 次;可解释性和准确性几乎被忽视这种关注度分布表明,研究者更注重即时的功能表现,而忽视了长期的系统级质量属性这种质量关注的偏颇表明,当前研究仍以「可用性优先」驱动,而非「可靠性与可解释性优先」,这是 AI 走向工业级软件系统的最大隐患。
三大核心挑战:紧密交织的困境研究识别出 10 个主要挑战,其中三个核心挑战形成了紧密关联的「三角关系」:可复现性(66.8%)可复现性是最严重的问题LLM 的随机性、参数敏感性以及黑盒 API 的不透明性,使得研究结果难以验证和重现。
这在需求生成和验证等关键场景中尤为严重幻觉问题(63.4%)AI 生成的需求可能与输入冲突或包含虚构内容在 RE 领域,需求的精确性和可追溯性至关重要,幻觉问题可能导致严重的系统设计偏差可解释性(57.1%)。
LLM 的决策过程不透明,在医疗、法律等高风险领域尤为致命。研究发现,这三个挑战的共现率达 35%,表明它们必须被整体性地解决,而非孤立应对。

Correlations among the LLM issues reported in literature on RE (%).可复现性影响幻觉问题的验证,幻觉问题又加剧可解释性缺失;三者相互强化,构成当前 GenAI 研究最难攻克的「信任瓶颈」。
评估实践:基础设施的薄弱环节工具和数据集的可用性困境尽管越来越多研究开发了工具和数据集,但实际可用性令人担忧:仅 23.9% 的研究公开发布了工具;45.8% 的研究使用了不公开的数据集;缺乏统一的基准测试框架。
评估指标的表面化评估方法主要依赖传统


评论(0)