谷歌深入研究生成式AI滥用现象,推动负责任技术发展
随着生成式人工智能技术的不断进步,这些可生成文本、图像、音频和视频的多模态AI模型正在推动创造力与商业机会的全新时代。然而,这些能力的增长也伴随着潜在的滥用风险,包括信息操纵、欺诈、霸凌和骚扰行为等问题。为了促进AI的负责任使用,谷歌发布了一项研究,与多方合作分析生成式AI技术的滥用现状,旨在为开发更安全、更负责任的技术提供指导。
研究团队在2023年1月至2024年3月期间,分析了200份媒体公开报道,厘清了生成式AI滥用的主要手段,并分类出常见的滥用策略。研究集中在两大主要滥用类别上:
1. 利用生成式AI能力进行剥削:如生成逼真的人物形象以冒充公众人物、实施诈骗。
2. 破坏生成式AI系统安全:包括通过“破解”模型移除安全功能,以及利用对抗性输入导致系统运行异常。
例如,研究引用了一起发生于2024年2月的高调案例:某国际公司因员工在在线会议中受骗向欺诈方转账,会议中的多人(包括公司首席财务官)实际为计算机关联生成的虚假形象。这类情况展示了生成式AI如何赋予传统信息操纵手段新的威力,特别是降低其技术门槛,使缺乏专业技能的人员也能轻易实现滥用。
同时,研究指出,许多滥用手段(如冒充、诈骗和虚拟人物)虽然早已存在,但因生成式AI降低了资源和成本获取难度,使其使用规模显著扩大。这不仅放大了这些传统策略的威胁,更为不良行为者提供了前所未有的操作便利。
通过分析这些滥用案例,研究不仅定义了具体的滥用手段,还识别了它们的组合方式,并将其标记为“策略”。其中,高频出现的目标包括:影响公众舆论、实施诈骗或伪造信息以谋取经济利益。
值得注意的是,一些生成式AI的新兴应用虽然并非刻意出于恶意,也引发明显的伦理争议。例如,政治宣传活动中的虚拟候选人形象或生成内容,因缺乏透明披露,模糊了真实与虚假的界限,可能误导选民并损害民主关键价值。
研究承认数据来源主要基于媒体报道,这可能存在偏向特定类型事件的可能性。同时,传统内容操控手段(如图片编辑或建立内容农场)仍具更广泛的使用范围。这些发现显示,尽管生成式AI滥用在增多,但与其他技术的相对影响仍需更全面的对比分析。
研究给出一系列改进方向,以应对生成式AI的滥用可能性:
– 公众教育:推广AI素养的广泛培训,帮助人们识别和抵御滥用行为。
– 产品防护升级:通过研发全新工具,进一步完善对生成式内容的识别和审核功能。例如,谷歌YouTube加强了针对误导性AI内容的识别机制,并更新选举广告政策,要求明确标注使用了生成式AI创作的素材。
– 行业标准化合作:谷歌已加入多方合作项目,如全球“内容凭据”技术标准的制定,以实现追溯生成内容来源的透明化。
同时,该研究支持内部持续开发尖端技术工具,如更具针对性的“红队”评估方法,提高AI生成内容的可追踪性。这种多角度的联合努力为业界提供了实用方案,并通过提升技术安全性进一步减少风险。
生成式AI技术的广泛应用固然充满机遇,但其潜在滥用风险表明,行业必须建立更坚实的安全机制和伦理基础。谷歌的研究不仅为行业内外提供了关于滥用现状的宝贵洞察,也为未来技术保护措施的设计和实施提供了重要指导。
这项工作代表了多方学者和专家的集体努力,旨在推动负责任的技术开发、提升公众抵御风险的能力,并与行业、决策者和研究机构共同携手,确保生成式AI成为社会发展的积极力量。
[AI之星网出品] [生成式AI滥用] [AI信息操纵风险] [生成式AI安全机制] [人工智能伦理争议] [刘智勇频道][机器姬智能体][真机智能][机器洞察网][AI之星网][风投高科网][猛虎财经网][硅基科学网]

技术的出现从来都是双刃剑,如何用得其所才是人类智慧的真正体现。生成式AI的发展,期待我们更多的正向创新!