10月8日,科技部等10部门印发的《科技伦理审查办法(试行)》(以下简称《办法》)正式公布,并自2023年12月1日起施行。其中要求,算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当等。
有关分析指出,出台《办法》的做法与国际是同步的,国外科技企业设立专门的科技伦理委员会已经成为常态,未来,科研、产品上市周期需要纳入科技伦理审查的因素,届时,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。
做法与国际同步
《办法》中提到,开展涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动;涉及实验动物的科技活动;不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动;依据法律、行政法规和国家有关规定需进行科技伦理审查的其他科技活动时应依照本《办法》进行科技伦理审查。
在同时发布的《需要开展伦理审查复核的科技活动清单》中,包含具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。具体如何审查?《办法》中提到,涉及数据和算法的科技活动,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当等。
“算法”“模型”成为《办法》实施后进行伦理审查的重点,其中,从ChatGPT的爆火开始备受关注的相关“大模型”或也包括其中。
大模型是指具有数亿或数十亿个参数的深度神经网络模型,这种模型经过专门的训练过程,能够对大规模数据进行复杂的处理和任务处理,是人工智能实现的基础之一。
“在生命科学领域,科技伦理一向有着比较严格完善的执行过程,这次把它扩展到了大模型领域,主要是防止在该方面可能存在的风险,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。”科技部国家科技专家库专家周迪向北京商报记者介绍,“这和国际也是同步的。国外科技企业设立专门的科技伦理委员会已经成为常态,Facebook、Google、索尼、微软等科技巨头均设立有自己的伦理委员会。企业的科研活动是持续进行的,因此科技伦理审查委员会需要作为一个常设机构。”
伦理合规或成竞争力
根据赛迪顾问发布的《2023大模型现状调查报告》显示,截至2023年7月底,国外累计发布大模型138个,中国则累计有130个大模型问世。《中国人工智能大模型地图研究报告》显示,从全球已发布的大模型分布看,中国和美国大幅领先,超过全球总数的80%,其中,参数在10亿规模以上的大模型中国已发布79个。
中国已形成了紧跟世界前沿的大模型技术群,接下来,大模型产业或将迎来科技伦理的考验。
“接下来,科研、产品上市周期需要纳入科技伦理审查的因素。”周迪表示,“因为中国将伦理审查作为强制程序,要求企业的研发活动得到企业内部科技伦理(审查)委员会的批准,并且可能需要报请主管部门批准。这意味着产品的科研、投入周期可能会延长,企业需在新技术研发伊始就将科技伦理的审查、复核流程纳入规划,避免因为伦理审查延误产品进程。”
周迪指出,引入伦理审查机制以后,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。“可以想象,创始人以后在AI科技产品的发布会上可能不只会讲自己的技术如何领先,还会讲我们的科技伦理审查编号是×××,如何比竞品更符合伦理规范。”
值得注意的是,资料显示,ChatGPT早期3.0版本的参数量已达到1750亿个,4.0版本的参数量更是达到1.8万亿个,训练数据的单位数量更是达到惊人的13万亿。早期围棋机器人AlphaGo等专用人工智能模型的参数量往往仅为百万级。有报道称,如果说此前的人工智能模型还只是经过训练后可以完成某些特殊任务的“马戏团猴子”,那大模型则可以说已经是一个接受完义务教育的“中学毕业生”。
不过,这一“中学毕业生”实则刚刚“入学”不久,此时就展开严管,是否过于严苛?“大模型刚刚开始发展,现在就开始监管,更多的是为了防患于未然。”周迪认为,“预防在先比事后措手不及要好。当然也希望科技伦理审查形成一个比较好的规范和尺度,防止过度。目前的科技伦理审查还是采取清单制,也就是说,清单内的需要伦理审查复核。这也有效地防止了科技伦理审查被盲目扩大化的风险。”
法律层面仍需不断跟进
“大模型科技伦理审查是为了更好地保护公众利益和社会稳定而设立的。”天使投资人、资深人工智能专家郭涛向北京商报记者指出,“随着新一轮科技革命和产业变革加速演进,尤其是AI大模型的出现,随之产生的伦理问题成为全世界面临的共同挑战,促进科技向善,迫切需要加强科技伦理治理。”
目前,有关大模型的科技伦理监管已然趋严,那么,在高速发展的科技方面,配套法律能跟得上吗?
北京市京师律师事务所合伙人、律师卢鼎亮向北京商报记者介绍,在上位法层面,我国已经出台了《中华人民共和国科学技术进步法》《关于加强科技伦理治理的意见》等规定,但是并没有针对大模型科技伦理审查的细则。
河南泽槿律师事务所主任付建也告诉北京商报记者,大模型科技伦理审查在法律层面上可能还存在一些需要突破的点位。“目前我国相关的法律法规还没有完全跟上大模型科技的发展,对于一些新兴技术和应用场景,法律法规的适用还存在一定的不确定性。此外,大模型科技的跨界性和复杂性也给监管带来了一定的全新挑战。”付建表示,“为了解决这些问题,需要加强相关法律法规的制定和完善,同时加强监管部门的能力建设,提高监管的科技水平和专业能力。”
付建表示,目前大模型科技还处于快速发展的初期阶段,监管的确需要加强,以防止一些潜在的风险和问题。卢鼎亮也指出,大模型技术发展的过程中确实会涉及到科技伦理风险,对于涉及到科技伦理审查的大模型技术科学活动,应当及早进行监管。科技伦理风险具有高度的公共利益属性,同时某些科技伦理风险一旦发生,具有不可逆性,因此,在行业发展初期,就应当对大模型技术的科技活动进行科技伦理审查。
新化月报网报料热线:886 2395@qq.com
相关文章
最近更新
- 大模型监管步入科技伦理走廊2023-10-11
- 董事长不再担任公司任何职务 中元股份称实控人变更不会对公司业绩产生影响2023-10-11
- (高质量发展调研行)走进重庆:感受“山水之城”的高质量发展2023-10-11
- 湖北省出台红十字会条例 禁止冒用红十字会名义募捐或接受捐赠2023-10-11
- 英大财险北京分公司扎实开展2023年消保教育宣传月活动2023-10-11
- 金融监管总局、中国人民银行、中国证监会发布金融消费者权益保护典型案例2023-10-11
- 加快公益诉讼立法推进法治中国建设2023-10-11
- 陕西陇县:构建“人大+政协+检察”监督新模式2023-10-11
- 海南生态文明建设驶入法治化快车道2023-10-11
- 涉黄河流域保护规范性文件集中清理完成2023-10-11
- 广西玉林公积金新政公开征求意见:拟上调最高贷款额度至60万元2023-10-11
- 博时基金王祥:国际黄金市场延续下挫态势 境内外价差有望继续收敛2023-10-11
- 江苏人民陪审员5年参审案件逾90万件2023-10-11
- 最高法:今年1-9月帮助1000多家企业通过重整和解实现重生2023-10-11
- 河北法院建立环渤海环资司法协作机制2023-10-11
- 公安机关打击缅北涉我电信网络诈骗犯罪再添战果 706名犯罪嫌疑人分三批移交我方2023-10-11
- 爱能平台第十届928教育节在山东泰安成功举办2023-10-11
- 最高法发布服务保障京津冀协同发展典型案例2023-10-11
- “数智”赋能新时代法律监督 石狮检察激发高质效履职内在动能2023-10-11
- 甘肃省交通运输厅组织召开推进农村物流融合发展协调会2023-10-11
- 守护绿水青山 陇南多项指标居甘肃省第一2023-10-11
- 中国大学生音乐艺术节共创盛典暨凡尔赛大会开启2023-10-11
- 第六届中国(湘潭)齐白石国际文化艺术节将于11月2日举行2023-10-11
- 深圳现有607个存量住宅用地项目 未动工土地面积295.16公顷2023-10-11
- 小田并大田 农场田不闲丨乌当新堡村“三一”模式建家庭农场拓农旅经济2023-10-11
- 【楚天评】东湖评论:人间十月天,相约到襄阳2023-10-11
- 农行郯城支行开展“反诈识诈,护航学子”进课堂宣传活动2023-10-11
- 星图金融旗下星云数字多款风控产品通过麒麟软件认证2023-10-11
- 聚亚洲之力,筑未来之路2023-10-11
- NEAS CHINA 2024将于2024年8月上海召开2023-10-11