中国发展观察丨ChatGPT:价值、应用和治理
ChatGPT不仅是对新一代聊天机器人和生成式AI的突破,还将对AI产业乃至各行业数智化转型升级带来颠覆性变革,进而重构产业知识模型构建范式,推动智力密集型服务产业规模化和市场化。
《中国发展观察》杂志2023年第6期刊发了清华大学梁正、何江两位研究者的联合署名文章《ChatGPT意义影响、应用前景与治理挑战》,对有关问题进行分析,提出对策建议。
文章认为,ChatGPT的产业实践应用将极大程度地赋能产业数智化转型升级,新一轮产业变革已成大势所趋,包括推动AI产业化加速、AIGC走向“平民化”时代、人机分工式混合劳动力成为用工主导范式、AI商业价值拓展至C端应用等。
文章分析,从技术角度看,当前ChatGPT仍面临高成本(包括硬件采购、模型训练以及日常运营等)、准确性(有时“一本正经地胡说八道”)、完整性(不能联网而存在知识盲区)、可靠性(专业领域知识无法验证)、算法可解释性与透明度缺失、算法偏见与歧视等多重局限。其在实际应用中面临以下五方面挑战。
一是ChatGPT可能导致机器产生的内容“驱逐”人类文明产生的内容,可能出现机器谎言掩盖事实真相的情况。
二是ChatGPT可能挑战现行科研与教育体系,包括对基础教育体系的冲击以及造成学术不端与作弊等。
三是ChatGPT生成内容的版权难以界定。
四是出现挖掘数据价值与保护用户隐私的“两难”困境。
五是引发灰色产业链乱象。
此外,ChatGPT还可能带来虚假新闻、诈骗、网络和数据安全风险、数字鸿沟、结构性失业等挑战。
对于这些可能出现的挑战,文章建议从以下四方面着力应对。
一是识别ChatGPT在不同应用场景下的潜在风险,并按风险等级进行分级分类治理。
二是在ChatGPT生成的内容产品上添加数字水印等识别标记,进而降低模型被滥用带来的负面影响及相关监管隐患。
三是采用敏捷治理思路,以开放、包容的态度客观看待ChatGPT创新并持续跟踪其发展动态,在可控范围内允许在部分产业领域开展实践探索和应用,坚持规范监管与创新发展两手并重。
四是运用技术手段包括AI反制和鉴别ChatGPT生成内容,并积极探索生成式AI的问责机制与行为规范,让产品使用轨迹可追溯责任并落实到人,引领科技向善,助推实现人机共生。
(整理/杜悦英)