近期AI领域的几条资讯,恰好勾勒出行业的一种特殊状态:一边是基础研究在“否定”中寻找新路径,一边是应用层面的狂热与争议并存,这种看似矛盾的局面,恰恰是AI技术走向成熟的必经阶段。
先看NeurIPS的那项“负面结果”获奖研究。卡耐基梅隆大学的团队用严谨的论证,打破了深度学习领域长期依赖的“一致收敛”工具神话——这个被用来解释模型泛化能力的核心数学工具,可能从根上就无法解答深度学习的泛化难题。在AI研究普遍追求“正向突破”的当下,这种“证伪”式的研究反而拿到了“新方向奖”,足以说明学界已经意识到,有些“路走不通”的结论,比零星的技术优化更有价值。
这种“否定”的价值,在于它能打破路径依赖。过去十年,深度学习的发展更多靠工程化的堆数据、堆参数,理论研究始终追不上应用的脚步。当大家都在沿着“一致收敛”的思路死磕泛化问题时,这个负面结果相当于给所有人泼了一盆冷水:与其在错误的方向上浪费精力,不如换一套数学工具重新出发。这正是基础研究最珍贵的地方——它不负责给出答案,却能帮行业避开陷阱。
另一边,斯坦福大学基础模型研究中心(CRFM)的成立引发的炮轰,同样指向了AI基础研究的焦虑。斯坦福把GPT-3、BERT这类大模型定义为“基础模型”,试图以此为核心构建AI的研究框架,但不少专家直接否定了这种定位:这些靠数据喂出来的“黑盒子”,连自身的运行逻辑都无法解释,根本担不起“基础”二字。更有人质疑,这不过是用好听的名字圈资源,本质还是在延续“堆参数”的老路。
这种争议的背后,是学界对AI发展路径的分歧。一部分人认为,当前的深度学习只是“工程奇迹”而非“科学突破”,要实现真正的通用人工智能,必须回到认知科学、神经科学的基础问题上;另一部分人则觉得,既然大模型能解决实际问题,不如先把应用做深,再反过来反哺理论研究。斯坦福的选择,其实是一种务实的妥协:先抓住当下最有潜力的技术方向,再慢慢补理论的课。
和基础研究的冷静形成对比的,是大众层面的AI学习热。B站上“7天搞懂十大机器学习算法”的教程爆火,背后是越来越多人想挤进AI赛道的迫切心态。这种快餐式的学习固然能快速培养一批应用层的开发者,但也容易让人忽视AI技术的复杂性——真正的机器学习研究,从来不是背几个算法公式就能搞定的,它需要扎实的数学基础和对问题本质的理解。
从“否定旧工具”到“争议新框架”,再到“快餐式学习热”,这三条资讯其实指向了同一个问题:AI技术正处于一个“半成熟”的阶段。应用层面的繁荣让所有人都看到了潜力,但基础研究的滞后又让大家对未来充满焦虑。在这个阶段,既需要有人像卡耐基梅隆的团队那样,敢于否定“权威”,为理论研究开辟新方向;也需要有人像斯坦福那样,顶着争议推进应用研究,让技术落地;同时,更需要给大众传递一个理性的认知:AI不是“7天速成”的风口,而是需要长期深耕的科学领域。
或许,AI的下一个突破,就藏在这些“否定”与“争议”之中。当行业不再盲目追求“正向结果”,当基础研究能跟上应用的脚步,当大众对AI的认知回归理性,我们才能真正迎来人工智能的成熟时代。