大模型监管步入科技伦理走廊

10月8日,科技部等10部门印发的《科技伦理审查办法(试行)》(以下简称《办法》)正式公布,并自2023年12月1日起施行。其中要求,算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当等。

有关分析指出,出台《办法》的做法与国际是同步的,国外科技企业设立专门的科技伦理委员会已经成为常态,未来,科研、产品上市周期需要纳入科技伦理审查的因素,届时,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。

做法与国际同步

《办法》中提到,开展涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动;涉及实验动物的科技活动;不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动;依据法律、行政法规和国家有关规定需进行科技伦理审查的其他科技活动时应依照本《办法》进行科技伦理审查。

在同时发布的《需要开展伦理审查复核的科技活动清单》中,包含具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。具体如何审查?《办法》中提到,涉及数据和算法的科技活动,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当等。

“算法”“模型”成为《办法》实施后进行伦理审查的重点,其中,从ChatGPT的爆火开始备受关注的相关“大模型”或也包括其中。

大模型是指具有数亿或数十亿个参数的深度神经网络模型,这种模型经过专门的训练过程,能够对大规模数据进行复杂的处理和任务处理,是人工智能实现的基础之一。

“在生命科学领域,科技伦理一向有着比较严格完善的执行过程,这次把它扩展到了大模型领域,主要是防止在该方面可能存在的风险,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。”科技部国家科技专家库专家周迪向北京商报记者介绍,“这和国际也是同步的。国外科技企业设立专门的科技伦理委员会已经成为常态,Facebook、Google、索尼、微软等科技巨头均设立有自己的伦理委员会。企业的科研活动是持续进行的,因此科技伦理审查委员会需要作为一个常设机构。”

伦理合规或成竞争力

根据赛迪顾问发布的《2023大模型现状调查报告》显示,截至2023年7月底,国外累计发布大模型138个,中国则累计有130个大模型问世。《中国人工智能大模型地图研究报告》显示,从全球已发布的大模型分布看,中国和美国大幅领先,超过全球总数的80%,其中,参数在10亿规模以上的大模型中国已发布79个。

中国已形成了紧跟世界前沿的大模型技术群,接下来,大模型产业或将迎来科技伦理的考验。

“接下来,科研、产品上市周期需要纳入科技伦理审查的因素。”周迪表示,“因为中国将伦理审查作为强制程序,要求企业的研发活动得到企业内部科技伦理(审查)委员会的批准,并且可能需要报请主管部门批准。这意味着产品的科研、投入周期可能会延长,企业需在新技术研发伊始就将科技伦理的审查、复核流程纳入规划,避免因为伦理审查延误产品进程。”

周迪指出,引入伦理审查机制以后,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。“可以想象,创始人以后在AI科技产品的发布会上可能不只会讲自己的技术如何领先,还会讲我们的科技伦理审查编号是×××,如何比竞品更符合伦理规范。”

值得注意的是,资料显示,ChatGPT早期3.0版本的参数量已达到1750亿个,4.0版本的参数量更是达到1.8万亿个,训练数据的单位数量更是达到惊人的13万亿。早期围棋机器人AlphaGo等专用人工智能模型的参数量往往仅为百万级。有报道称,如果说此前的人工智能模型还只是经过训练后可以完成某些特殊任务的“马戏团猴子”,那大模型则可以说已经是一个接受完义务教育的“中学毕业生”。

不过,这一“中学毕业生”实则刚刚“入学”不久,此时就展开严管,是否过于严苛?“大模型刚刚开始发展,现在就开始监管,更多的是为了防患于未然。”周迪认为,“预防在先比事后措手不及要好。当然也希望科技伦理审查形成一个比较好的规范和尺度,防止过度。目前的科技伦理审查还是采取清单制,也就是说,清单内的需要伦理审查复核。这也有效地防止了科技伦理审查被盲目扩大化的风险。”

法律层面仍需不断跟进

“大模型科技伦理审查是为了更好地保护公众利益和社会稳定而设立的。”天使投资人、资深人工智能专家郭涛向北京商报记者指出,“随着新一轮科技革命和产业变革加速演进,尤其是AI大模型的出现,随之产生的伦理问题成为全世界面临的共同挑战,促进科技向善,迫切需要加强科技伦理治理。”

目前,有关大模型的科技伦理监管已然趋严,那么,在高速发展的科技方面,配套法律能跟得上吗?

北京市京师律师事务所合伙人、律师卢鼎亮向北京商报记者介绍,在上位法层面,我国已经出台了《中华人民共和国科学技术进步法》《关于加强科技伦理治理的意见》等规定,但是并没有针对大模型科技伦理审查的细则。

河南泽槿律师事务所主任付建也告诉北京商报记者,大模型科技伦理审查在法律层面上可能还存在一些需要突破的点位。“目前我国相关的法律法规还没有完全跟上大模型科技的发展,对于一些新兴技术和应用场景,法律法规的适用还存在一定的不确定性。此外,大模型科技的跨界性和复杂性也给监管带来了一定的全新挑战。”付建表示,“为了解决这些问题,需要加强相关法律法规的制定和完善,同时加强监管部门的能力建设,提高监管的科技水平和专业能力。”

付建表示,目前大模型科技还处于快速发展的初期阶段,监管的确需要加强,以防止一些潜在的风险和问题。卢鼎亮也指出,大模型技术发展的过程中确实会涉及到科技伦理风险,对于涉及到科技伦理审查的大模型技术科学活动,应当及早进行监管。科技伦理风险具有高度的公共利益属性,同时某些科技伦理风险一旦发生,具有不可逆性,因此,在行业发展初期,就应当对大模型技术的科技活动进行科技伦理审查。

图片版权归原作者所有,如有侵权请联系我们,我们立刻删除。
新化月报网报料热线:886 2395@qq.com

相关文章

你可能会喜欢

最近更新

推荐阅读