日前,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,提出生成式人工智能产品提供服务前需申报安全评估和算法备案。从去年红极一时的AI绘画到近期备受关注的ChatGPT,人工智能生成内容(以下简称“AIGC”)热度不减。然而,伴随着AIGC应用的不断落地,其暴露出来的数据安全、隐私保护等问题也日益显现。
人工智能产业发展迅猛
当前,全球数字经济发展日趋繁荣,元宇宙场景的不断拓展,以及ChatGPT等AIGC应用的成功“破圈”,标志着人工智能产业正在驶入发展快车道。
(相关资料图)
我国人工智能产业正在与实体经济深度融合,成为经济社会发展新的增长引擎。国家先后出台《新一代人工智能发展规划》《科技部关于支持建设新一代人工智能示范应用场景的通知》等政策,助力人工智能产业发展。中国信通院测算,2022年我国人工智能核心产业规模达5080亿元,同比增长18%。据预测,到2030年,我国人工智能产业规模将达到1万亿元。
IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》指出:人工智能算力正在为国家创造力的发展带来实质性推进,为企业带来切实的创新成效,加速驱动新业态形成。
作为引领新一轮科技革命和产业变革的战略性技术和重要驱动力量之一,人工智能正在加速赋能千行百业,并融入日常生活的各个方面。
警惕AIGC数据安全风险
AIGC是基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的人工智能技术。据Gartner预测,到2025年,AIGC将占所有生成数据的10%。
由于AIGC技术需要大量的数据来进行训练和优化,以ChatGPT为例,GPT3直接把数据模型参数量从15亿提升到1750亿,接近了人脑中神经连接的数量水平。然而,海量的数据也暴露出了更大的数据安全风险。
西部证券研报指出,生成型人工智能可能在获取数据时侵犯知识产权,在数据获取与保存上存在一定法律风险,生成内容被滥用可能带来巨大的伴生风险。
如何把好人工智能数据“安全关”?
人工智能浪潮下的数据安全引发社会广泛关注,如何把好数据“安全关”对于人工智能产业的发展至关重要。
在国家层面,需要进一步强化相关政策引导和立法规范。中国信息经济学会副理事长、广州大学网络空间安全学院教授齐佳音表示,《征求意见稿》为AIGC的研发和应用第一次立了规矩,使得AIGC的研发和应用有了规制框架,对于规范和引导这一领域的发展具有十分重要的积极作用。
在企业层面,把握好数据安全才能掌舵AI产业的未来。信息通信行业是人工智能发展的重要驱动力和应用场。作为通信央企,中国电信持续布局人工智能技术及平台的自主研发,打造了全球首款以云网融合为基础底座,搭载“全网、区域、边、端”四级算力的人工智能产品和能力平台——星河AI平台。同时搭配天翼安全大脑、量子密话、电信数盾等系列产品与服务,以及国内唯一有全网覆盖和全球触达能力的“云堤”平台,构建数据安全能力体系,为行业客户提供业界领先的安全服务,护航AI产业高质量发展。