封面新闻记者 边雪
尽管生成式人工智能茁壮成长,但根据《生成式AI》报告,当前生成式AI市场处于技术主导的早期阶段,存在千亿美元市值的平台性企业的机会。毫无疑问,人工智能可以加速科学技术创新进步、刺激生产力和经济增长,但技术的风险不容忽视。
(相关资料图)
那么,生成式人工智能在大幅解放生产力的同时,其所涉及到的安全、法律及伦理等问题应当如何规范?7月7日,2023世界人工智能大会智能社会论坛上,“智能社会与数字治理生态”引发与会中外专家学者对这些问题进行深入探讨,并发布了《人工智能大模型伦理规范操作指引》《生成式人工智能风险评估框架(1.0)》等一批专题研究成果。
人工智能大模型必须处于人类监督和控制之下
封面新闻记者在会场获悉,《人工智能大模型伦理规范操作指引》(以下简称“操作指引”)的发布,旨在应对人工智能大模型的风险,推动伦理规范落地实施。
“大多数人工智能伦理原则和指南内容是趋同和重叠的,说明对于核心的人工智能伦理原则,基本已经取得了高度共识。但这些伦理原则如何落地实施,却始终没有较有力的措施。”研究团队相关负责人、同济大学人文学院特聘教授杜严勇表示,这也是尝试探讨人工智能大模型伦理规范操作指引的根本原因。“我们尽可能指向人工智能大模型技术特征以及可能的应用场景,提高操作指引的针对性。”
据介绍,操作指引把重点放在了人工智能的研发环节。研究团队认为,科研人员在人工智能伦理方面承担着最为重要的道德责任。值得注意的是,操作指引着重强调了“人类”的监督、控制和责任。
“我们认为可以在一定程度上使人工智能大模型的决策和人类利益和价值观保持一致,这也是实现人工智能大模型安全性最为重要的方面。”杜严勇说,“无论人工智能大模型的伦理再强大,毕竟还是拥有工具属性。因此,我们一定要保证,在重大决策方面,‘人类’必须在决策环中。人工智能大模型必须处于人类监督和控制之下。”
为此,操作指引提出,要通过完善责任内容分配,形成责任闭环,从而尽可能规避所谓的责任鸿沟和有组织的不负责任的现象。
面对技术:先勇敢拥抱
有分析认为,虽然伦理审查短期内会影响产品商业化的效率,但从长期来看,有助于人工智能行业可持续的健康发展,让我国在这一领域形成可持续的全球竞争力。
清华大学智能社会治理研究院院长苏竣从AI与环保角度切入举例:“目前数字化与绿色化发展之间还存在夹角,如果处理得当,智能技术将在推动能源生产消费革命方面发挥巨大作用,大幅降低能源消耗和碳排放,有助于尽快实现‘双碳’目标。反之,处理不当则可能带来更多能源消耗和社会福利的损失,使社会陷入生态危机。”
北京大学人工智能研究院研究员沈体雁说,AI治理主要就是三个问题,把AI创好、把AI用好、把AI管好,“后两方面,中国有绝对的优势。但在原始创新方面,我们还是有一些短板。”他建议,应该给AI研发者一点空间,对他们有更多的包容,“尽量少管他们,随便他们折腾。折腾出成果,再想办法管理。”
“我们不能采取鸵鸟政策,更不能采取封堵政策,不要担心技术不可控,就选择不使用或者少使用。”苏竣说,“科学技术的大门已经打开了,应该勇敢站到舞台上去,采取积极治理措施去拥抱新技术,全面加强基于chatgpt架构的应用。”
提防AI“变坏” 我们早有防备了
AI狂飙后,引发的伦理与法治危机自然成为焦点。实际上,对于AI伦理的“管束”,我们已经在路上了。
日前,科技部公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)的意见,其中明确提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,部分算法模型、自动化决策系统需要专家复核。
科技部本次发布的《办法》提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。
此外,在《办法》的附录中还提到了“需要开展专家复核的科技活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。
事实上,在ChatGPT诞生之前,我国就已经出台与人工智能伦理的相关规范和标准。2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。
但是,无论AI如何狂飙,科技之花究竟是善是恶,似乎难逃人类内心的道德伦理规范。正如法国哲学家笛卡尔曾言:“杰出的人才固然能够做出最大的好事,也同样可以做出最大的坏事;行动十分缓慢的人只要始终循着正道前进,就可以比离开正道飞奔的人走在前面很多。”