• 理论广角

  • 当前位置: 必威 >> 正文

ChatGPT技术潜在的政治安全风险

发布时间:2023-03-31 发布者:必威 浏览次数:

ChatGPT技术潜在的政治安全风险

吉磊 李大琨

   2022年底,OpenAI 推出了新一代的人工智能大语言模型ChatGPT,成为全球用户迅速破亿的现象级应用。相比传统人工智能技术,以ChatGPT为代表的大模型表现出强大的语言理解交互能力、多领域内容生成能力、快速进化的涌现能力以及弱人工智能向强人工智能持续迈进的前景,引起了各界的强烈关注。随着智能时代数字世界和物理世界不断深度融合,持续演进的大模型技术深度嵌入国内和国际的政治、经济、社会诸领域成为大势所趋,对这一高歌猛进的技术的潜在政治和安全风险进行思考也日益紧迫。

   政治决策面临新风险

  数字时代的公共空间分散化和碎片化问题日益凸显。大语言模型基于互联网数据处理和深度学习技术,在未来的政治过程中能够通过充分汇总信息、确定目标集合、设计合理方案等方式,有力地辅助国家对多元社会进行系统性整合,加强政治决策的便捷性、科学性和包容性。然而,大模型技术增强国家治理能力的同时,也给政治决策带来一些隐含的风险。

  一是政治决策机制重塑。伴随着大模型的普及化与应用化程度的深入,大模型凭借其无与伦比的信息收集处理能力,配合先进的算法,处理信息后给出的决策建议在相当程度上具有整合性和便利性,将不可避免地使某些政策制定者依赖大模型进行政治决策。在这种情况下,大模型实际上已经部分承担了政策建议甚至政治决策职能。如果政策制定者长期依赖大模型技术而不注重自身政治素养的提高,那么将不可避免地出现政策创新力匮乏的问题,进而降低整个国家的决策水平。

  二是政治决策忽视偏好问题。大模型毕竟只是一种技术,在收集信息时只是出于单纯的收集目的。尽管大模型处理海量数据资源,且模型灵敏度会依靠日后训练与数据填补而提升,但政治决策对象毕竟是具备情感偏好的生命体,他们所喜好的政策未必就是最符合程序计算的政策。这就出现了一个极困难的问题——人工智能系统可能始终无法完全理解政治决策对象的情感诉求。因此,大模型依据惯例做出的政治建议或决策存在回应性不足的风险。

  三是政治信任降低的风险。大模型深度进入政治生活后,无论是政治决策者抑或是政治诉求表达者均可利用该模型从事政治活动。在这种情况下,由于大模型输入语言的类人化程度极高,政治决策者难以判断收到的政治诉求是否出自真正的“人”之口,政治诉求表达者难以判断收到的政策回应是否真的源于“官员”本人,此时可能出现政治决策者与诉求表达者的双向信任危机。

   舆论传播面临新挑战

  大模型作为革命性的人工智能技术,将发挥显著的社会赋权功能,进一步提升普通民众在公共议题上的话语权,促进公众意见的传播和影响,推动社会群体和社会组织的组织能力提升。但由于大模型对公众意见和思想强大的影响力,也给国家内部和国际社会的舆论传播和治理带来不小的挑战。

  第一,错误信息和观点将潜移默化引导公众舆论。大模型的算法和数据具有鲁棒性、透明度、可解释性、可靠性欠缺等问题,“大数据+海量参数+大算力”提升了模型的总体拟人表现,但并不是和人一样理解与思考,有时无法从事实上区分信息的真实性,难以识别数据隐含的偏见和毒性,从而产生虚假的、误导性的或低质量的结果。这些错误和偏见往往会影响人的政治判断和政治选择,甚至隐蔽地塑造和误导公众舆论,冲击主流价值和观念。

  第二,大语言模型可能弱化国家阐释权。阐释权代表了国家在引导社会舆论、宣扬社会思想方面的权威性,是国家软实力的重要组成。随着大模型全面嵌入社会并参与某些重大概念与事件的解释,大模型由于自身的普及性和便利性,可能使社会公众习惯于第一时间寻求大模型解释路径。这种先入为主性叠加大模型输出系统的高度拟人与完备化,将严重削弱官方解释的说服力,削弱国家阐释的权威性。

  第三,大语言模型沦为意识形态武器。大模型技术在算力、算法、数据等方面的高门槛容易导致少数国家的技术垄断,可能被当作意识形态战争或颜色革命的工具。一国可针对他国公众心理弱点来供给带有政治目的与本国意识形态偏好的内容产品,进而影响目标国公众的政治判断和政治选择,间接把控政治走向,对目标国意识形态安全阵地进行隐形渗透。

   技术监管面临新难度

  大语言模型广泛应用后,国家和政府需要应对的数据压力呈几何级增长,而且伴随着输出语言的高度拟人化,想要对这些信息进行真伪分辨极其困难。掌握大语言模型技术的科技公司在社会中的话语权越来越大,使得国家在大模型时代进行数字治理和技术监管的难度大增。

  首先,监管需求和监管能力之间存在差距。随着大模型技术的逐渐发展,其输出错误或具备隐晦意识形态宣传的话语表述,在大多数情况下难以为非专业人士所识别。此外,当ChatGPT等大模型以网络水军的方式参与公共事务,并蓄意就某一政治事件输出具备意识形态色彩的错误事实时,庞大的数据体量会造成不小的监管压力。如果政府部门无法及时对网络环境进行正确监管,对错误信息进行分辨处理,这种由于监管缺口而在公众间广泛传播的错误信息可能造成严重的意识形态风险。

  其次,技术垄断侵蚀国家治理能力。大语言模型技术的创造、发展和普及都离不开专业的科技企业,特别是科技巨头。这些企业以委托治理的方式参与国家治理目标的实现。但是大语言模型必需的算法、算力、数据三大数字要素被少数头部科技企业掌握,先行优势扩大规模效应,这些企业必然会形成技术垄断趋势。走向寡头化的科技巨无霸依赖算法权力和运作效率,模糊国家的权力边界,甚至取代国家的部分功能,带来“国家空心化”的危险。

   深刻影响动荡变革期的国际体系

  智能时代国际科技竞争日益激烈,科技水平和创新能力是国家权力的核心要素。大模型技术作为人工智能领域的划时代革新,其发展和扩散对已经进入新的动荡变革期的国际体系具有深刻影响。

  一方面,大模型技术很可能会强化科技政治极化对抗。大模型架构所需的高数据量与技术储备特质决定其存在被科技大国垄断的趋势。在时下激烈的技术竞争下,技术大国通常选择护持已有技术避免对手国获取,而无力参与大模型架构的技术弱国只能被迫选边站队。部分发达国家近年来通过限制芯片等遏制发展中国家的科技和产业发展的事例表明,国际技术政治的竞争性进一步加剧,国际秩序坠入两极对抗的可能性上升。

另一方面,大模型技术可能会助推价值观联盟形成。掌握大模型技术的国家基本上都是发达国家,这种技术霸权加剧了发展中国家对发达国家的技术依赖。同时,由于大模型技术的重要意义,使得发达国家进一步加大了对自身价值优越感的传播,强化了西方价值观隐蔽的支配地位,使发达国家更容易利用大模型工具推动价值观联盟形成。

(作者单位:华东政法大学政府管理学院)

来源:中国社会科学网-中国社会科学报

 


上一条:任理轩:坚持不懈用习近平新时代中国特色社会主义思想凝心铸魂 下一条:​中国式现代化蕴含的独特“六观”

关闭