当武汉“萝卜快跑”的自动驾驶伦理争议还在发酵,国外14岁少年因AI虚拟陪伴者自杀的新闻又给行业敲响警钟。AI技术的跃进式发展,早已跳出实验室的安全圈,伦理失控的风险正从一个个极端案例,渗透到数据采集、算法推荐、商业应用的日常场景中。
**伦理审查的“虚置化”困境**
当前国内的AI伦理审查,正面临着形式化、虚置化的现实难题。不少企业的伦理审查委员会沦为摆设,审查标准模糊、程序走过场,难以真正识别技术背后的伦理风险。这种“软治理”的特征,让本应作为安全阀门的伦理审查,常常在商业利益的驱动下失效。比如部分企业为了快速推进AIGC商业化,刻意回避敏感场景的伦理评估,甚至用“技术中立”为借口逃避责任。
**商业化催生的新型伦理风险**
生成式AI的商业化浪潮,正在催生更隐蔽的伦理问题。数据层面,企业通过模糊授权、跨平台抓取等方式低成本攫取用户数据,算法黑箱让用户知情权形同虚设;算法训练上,依赖历史数据的模型容易固化性别、职业等偏见,在人才筛选、广告推荐中加剧社会不公;更有甚者,部分企业将AIGC用于深度伪造、情绪操控,以短期收益破坏长期社会信任。这些风险不再是抽象的伦理讨论,而是实实在在影响着用户权益与公共秩序。
**伦理审查的功能定位需明确**
要破解伦理审查的困境,首先得明确其核心功能。不同于以生命健康为核心的生物医药伦理审查,AI伦理审查的本质是对科技创新活动的合理性判断,而非强制性的安全审批。这意味着伦理审查不应全面铺开,而应聚焦敏感研究领域,比如自动驾驶、情感交互AI、深度伪造技术等,强制要求相关企业建立有效的伦理审查机制,避免对普通AI应用造成过度约束。
**区分两类伦理委员会的权责边界**
很多企业混淆了科技伦理委员会与科技伦理审查委员会的定位,这也是审查失效的重要原因。前者更多承担伦理研究、行业规范制定的职责,后者则需针对具体AI项目开展实质性审查。未来应明确两者的权责边界:科技伦理委员会负责制定通用伦理准则,而只有涉及高风险AI项目的企业,才需组建专门的伦理审查委员会,其审查结果需与安全风险评估报告一同作为监管依据。
**从“软约束”到“硬支撑”的治理转向**
要让伦理审查真正发挥作用,不能只停留在道德呼吁层面,而需构建“制度+技术”的双重支撑。制度上,要完善AI伦理审查的程序标准,明确审查结果的法律效力,比如将严重违反伦理的项目纳入监管黑名单;技术上,要加大AI安全技术研发,比如可溯源算法、内容鉴别技术,用技术手段破解算法黑箱,让伦理风险可监测、可管控。
**企业伦理治理需纳入战略核心**
企业作为AI技术的主要开发者和应用者,不能再将伦理治理边缘化。部分企业仍延续传统工业逻辑,以利润为唯一导向,这种思路已经跟不上AI时代的要求。未来,企业需将伦理治理纳入战略核心,建立从研发到应用的全流程伦理评估机制,比如在算法训练阶段加入偏见检测,在产品上线前开展伦理风险模拟测试,让伦理约束成为技术创新的内在要求。
**公众素养是最后一道防线**
AI伦理风险的外溢,很大程度上源于公众认知的薄弱。多数用户对AIGC的工作原理和潜在风险缺乏了解,难以识别虚假信息和算法诱导。这需要教育、媒体、平台形成合力,普及AI伦理知识,提升公众的风险识别能力。只有当用户能主动辨别AI技术的合理边界,才能从源头减少伦理风险的传播土壤,让AI技术真正服务于人类福祉。