首发平台:AI之星网(www.AIstar.news)
中国AI审查技术再升级,泄露数据揭示大规模语言模型如何助力信息管控
一组泄露的数据揭示了中国政府如何利用先进的人工智能技术升级其信息审查能力。这套系统基于大规模语言模型(LLM),能够自动标记政府视为敏感的内容,从贫困地区的叙述到腐败案件的报道,再到有关台湾或军事话题的讨论。据悉,该系统包含超过13万条样本数据,用于训练模型,标记包括政治讽刺、社会不满、以及军事信息在内的多种内容。
加州大学伯克利分校研究中国审查机制的学者肖强(Xiao Qiang)指出,这一系统的泄露标志着中国政府正努力通过人工智能技术提高信息控制的效率与细致程度。他表示,这些技术超越了传统的关键词过滤与人工审查方式,能够以极高的效率识别隐晦的异议内容,并将其迅速屏蔽或处理。这不仅表明中国的数字信息管控能力大幅增强,也反映出全球范围内威权政权正迅速采用最新的人工智能技术来巩固其权力。
这份泄露的数据是由一位安全研究员发现并分享的。数据存储于一个未加密的Elasticsearch数据库,托管在百度的服务器上。虽然并没有直接表明百度或其他任何特定公司参与了数据的生成,但记录显示数据更新至2024年12月,表明这是一项正在运行的、较新的审查项目。
数据样本显示,这一AI模型优先处理与政治、社会生活和军事相关的敏感话题。污染和食品安全丑闻、金融欺诈,以及劳资纠纷是高优先级内容。此外,政治讽刺被明确列为重点监控对象,例如,利用历史类比批评现任政治领导人的内容会被即时标记。军事层面的敏感内容亦被高频监控,包括军队调动、军事演习及武器研发等信息。特别是与台湾相关的话题尤受关注,根据TechCrunch的分析,“台湾”一词在数据中出现逾1.5万次。
虽然数据集未明确标注其开发者信息,但有一关键线索表明其用途指向中国政府的“公共舆论工作”。根据国际权利组织Article 19的亚洲项目经理迈克尔·卡斯特(Michael Caster)指出,这一工作通常由中国网络空间管理局(Cyberspace Administration of China,简称CAC)负责,主要围绕网络内容的审查与宣传。这些技术最终目标是保护政府主导的叙事,同时消除任何挑战官方立场的替代观点。
中国领导人习近平曾强调互联网是中共舆论斗争的“前沿阵地”。这一数据集不仅体现了这一战略目标的落实,也揭示了政府正在如何运用技术手段对公众言论进行微观管理。
近几个月以来,关于中国利用 AI 技术控制舆论的证据不断涌现。据 OpenAI 的调查,一些中国实体利用生成式 AI 监控社交媒体上的反政府对话,并向政府递交相关内容。这项技术甚至还用于生成高度批评持不同立场人士的评论,例如针对著名中国异见人士蔡霞的攻击性内容。
传统审查方式通常依赖简单的算法自动屏蔽敏感关键词,如“天安门事件”或“习近平”等受政府关注的词汇。而通过LLM技术,这类系统不仅能更精准地甄别批判政府的间接表述,还能随着数据的不断更新持续优化自我学习能力,进一步提高审查效率。一位专家指出,“AI驱动的审查是这类信息控制技术不断进化的重要体现,使得政府对公共言论的掌控更加智能化。”
这一现象已经引起广泛关注。随着中国AI技术的发展,包括DeepSeek等模型在国际范围内的影响力不断扩大,其背后的舆论管控能力也值得警惕。肖强总结道:“在全球范围内,威权政权正在探索如何利用AI技术将信息压制扩展至更深层次。这一趋势对公众言论自由和网络开放性的潜在威胁不容忽视。”
随着AI技术对社会、政治及信息流的影响逐渐显现,这一领域的透明度与责任性将成为国际社会讨论的重要议题。泄露数据中的信息提醒人们,科技的进步不应被滥用于压制公共话语空间。
[AI之星网出品] [中国AI信息审查] [人工智能舆论管控] [大规模语言模型应用] [网络言论自由威胁] [刘智勇频道] [真机智能] [机器姬智能体] [机器洞察网] [AI之星网] [风投高科网] [猛虎财经网] [硅基科学网]
📚 更多资源分享:刘智勇频道第三卷
💾 百度网盘链接: https://pan.baidu.com/s/1Et35ZIQQNm2psDrzfA_SXw?pwd=qwer
🔑 提取码: qwer
安全研究人员堪称现代侠客,揭露真相的同时也在为数据隐私敲响警钟!