点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
5月27日,知道创宇副总裁李伟辰在2023•黑马AIGC峰会上作题为《知道创宇SecGPT,AIGC时代全流程业务风险治理》的分享,发布SecGPT架构下的内容治理方案,为中小企业做好AIGC内容治理提供创宇思路和解决方案。
SecGPT是将整个网络空间的数据放在一起进行跨域跨层的数据关联,并寻找风险及应对方式的过程。在当下的智能时代,AI技术逐渐成为网络攻防双方所关注的核心技术之一,网安行业的需求也逐渐从“合规”向“实战”升级。随着数据资源的指数级增长及大数据能力的崛起,以SecGPT概念打造安全能力生产线成为可能。
李维辰表示,从去年下半年发展到现在,AIGC行业不仅走出了低谷,如今这个行业的创业热潮更是如火如荼。数据显示,截至2022年底,我国人工智能相关企业注册量为42.27万家,2023年第一季度,注册量新增11.41万家,较2022年同比增长25%。
“事实上,在AIGC野蛮生长的过程中,我们也遇到了一些危机,例如一些人工智能生成内容的应用风险,比如AI换脸等。”李维辰说,互联网应用平台可能面临的危机,有误导性和虚假信息、不当违法内容、伦理道德、歧视性内容、隐私泄露等,这些风险都会被应用平台自身承担,后果往往是通报、罚款、整改或下架。在AIGC广泛应用的时代,互联网平台将面临巨大的风险压力。
从监管视角出发,AIGC的整个业务形态需要落实三类要求,分别是内容、算法和数据。
在内容合规方面,《生成式人工智能服务管理办法(征求意见稿)》提到,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,承担该产品生成内容生产者的责任;提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。《网络信息内容生态治理规定》里也提到,网络信息内容服务平台应当履行信息内容管理主体责任,加强本平台网络信息内容生态治理。
在算法合规方面,《互联网信息服务深度合成管理规定》里提出,深度合成服务提供者应当落实信息安全主体责任。《互联网信息服务算法推荐管理规定》中提到,算法推荐服务提供者应当落实算法安全主体责任。可见,算法合规必须考虑算法备案要求、算法评估要求、算法相对透明要求、用户权益建立健全机制等要求。
在数据合规方面,尤其是在AIGC特定的大模型下,更会遇到一些特殊的数据合规要求。在《生成式人工智能服务管理办法(征求意见稿)》里提到,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
李维辰表示,“除了上述监管要求,当企业成长到一定程度,进入IPO(首次公开募股)节点时,相关部门会提出更高要求。比如公司在保证人工智能技术可控、符合伦理规范方面有哪些措施和规划;公司经营是否符合相关法律;如果对外提供的产品有涉及服务数据的采集和应用,还要说明数据来源合法合规性;以及保证数据采集、清洗、管理、运用等各方面的合规措施。”
面对趋严的监管趋势,李伟辰介绍,“知道创宇SecGPT架构,由大数据AI安全基座、大数据AI安全模型算法中台、大数据AI安全能力引擎、大数据AI安全业务应用构建。在这一套基座上,我们已经成功运营了国内甚至全球性的几个超大型互联网平台。基于SecGPT,我们可以根据客户需求制定不同的解决方案。比如针对互联网应用平台,可提供AIGC智能审核定制、内容合规鉴别服务、AIGC训练标注服务、AIGC合规基线评测4套内容安全风控方案;针对大模型、大模型应用和相关企业,可以在训练阶段、评估阶段、推理应用阶段提供三位一体的合规解决方案;而针对AI对话、AI绘画、AI办公、AI搜索、AI视频、AI音频等AIGC应用场景,也可以提供ScanA全栈式内容风控体系解决方案。”(孔繁鑫)