丛斌博士:被AI的CMMI可行么?
在AI浪潮下也想求变的CMMI
关于CMMI如何拥抱AI,CMMI研究院已经折腾了三年。几经修改,目前逐步成型。CMMI下个版本基本确定通过AI特定场景(AI Context Specific)的形式,从两个应用场景,引入AI的内容:
1.从过程角度,组织尝试AI技术,强化其开发、服务、数据、安全等领域过程。
2.从产品和服务角度,开发出具备AI功能的产品或服务。
为了将AI导入CMMI市场,研究院也在考虑推动AI成熟度评估,鼓励现有的CMMI评估师获取领导AI成熟度的评估资格,为此会开发一天建立AI成熟度(Building AI Maturity - BAIM)和一天评估AI成熟度(Appraising AI Maturity - AAIM)的两个课程,当然这个资质也需要通过AAIM的考试。
虽然调子基本不会变了,但没落地之前一切皆有可能。万一有了出入,就当这是个fake news。
针对CMMI和AI的结合,CMMI圈子也出现了一些质疑的声音。
质疑一:是否可以通过CMMI指导AI技术的尝试和使用?
对于一些组织来说,拥抱AI的目的不是为了“过程改进”,而是革命性的创新。用它不是为了优化,而是替代。在AI世界里,也许通过过程改进来提升核心能力及业务能力的套路是不合时宜的。
质疑二:是否可以完全通过AI满足模型的实践?
举一个简单的例子:组织使用AI来检测某类文档中的缺陷,背景如下:
1. 两年前采购了该“AI 同行评审”工具;
2. 进行了广泛的工具验证,将AI 工具检测到的缺陷与人工同行评审检测到的缺陷进行了对比;
3. 对 AI 工具进行了优化,使其能发现人工评审中发现的所有缺陷,并能发现更多缺陷;
4. 由于该 AI 工具的高效率和高效果,认为对此类工作产品不再需要人工同行评审。
我们可以认为在这种情况下,组织实现了同行评审的意图和价值吗?
我们可以完全信任AI工具吗?可以把它视为同行吗?可以用它评审关键任务或关键生命安全的产品或服务吗?
质疑三:评估时多少AI算够?
几乎所有CMMI评估都苦于应对“多少才够?“的问题。当超过50% 的模型实践都包含了与AI 相关的特定场景信息时,这个问题变得更加突出。一个组织究竟需要做到什么程度才能获得AI的小证书呢(AI Mark)?
例如,如果一个组织仅在代码评审和分析由此产生的缺陷数据时使用AI 工具,这算“够”了吗?如果算的话,又该如何和那些在整个开发生命周期中普遍使用AI 技术的组织区分开来?
另一个需要回答的问题是:在 AI 的能力和使用场景以指数级迅猛的速度增长的情况下,一个每两到三年才更新一次的模型,怎么可能保持与时俱进?
质疑四:市场(特别是中国市场)会接受AI成熟度评估吗?
目前大环境下,评估焦点就是拿到CMMI 成熟度等级,以应对招标需求。增加AI这个新的领域扩展模型范围,会被市场,特别是中国市场接受吗?
研究院需要花些精力认真做个可行性调研,考虑到3.0中非开发领域受到的冷遇,我个人并不乐观。
欢迎老丛讲桌的读者留言,表达一下看法,让我听到来自中国企业的真实声音。