即使必须对AI生成内容加以标注,然而各大平台真把一应准备都做好了吗,新京报贝壳财经的实测表明,平台的识别能力存在着参差不齐的状况,AI内容眼下依旧处于“裸奔”的态势,

平台检测机制存在盲区

经由实测表明,六个主流平台,对于AI视频的其识别率是极低的。记者运用主流工具,生成了“萌宠变装”以及“AI美女”这两类热门视频,不管有没有保留水印,平台在发布环节均未主动进行提示标注。这暴露出,现有检测技术,对于新型AI生成内容的识别能力存在不足,尤其是针对经过简单后处理的视频内容 。

较值得予以关注的是,平台当下所拥有的AI内容识别模型存有显著漏洞,在哔哩哔哩这个平台之上,有UP主明确进行标注的“AI整活儿”视频仅仅是部分被识别出来了,其余的则顺利通过了检测,这样一种不稳定的表现表明该平台的算法训练数据或许并没有涵盖所有的AI生成内容类型,进而致使识别准确率出现较大幅度的波动。

用户标注路径隐蔽难寻

各大平台提供了AI内容标注功能,然而入口设计十分隐蔽,较为不易轻易寻得,微博的AI生成声明得经由发布页面,公开设置,还有分享范围,以及内容声明这四级菜单方可找到,这样复杂的操作流程显著降低了用户主动标注的意愿,并且违背了执行具备便利性的国家标准的基本原则 。

在被实测的六家平台里,用户主动标注的选项,大多是隐藏于二级或者三级子菜单之中的。这样的界面设计,致使普通用户在发布内容之际,很难迅速去完成标注的义务。平台理应在发布页面显著的位置,设置AI内容标注的入口,以此降低用户的操作成本。

平台责任落实尚不到位

按照《生成式人工智能服务管理暂行办法》,平台方承担着针对 AI 内容的审核管理责任,可是在实际测试当中发现,只有抖音给部分 AI 视频增添了识别提示,而其余平台都没能切实履行此职责,平台应当构建更为完善的 AI 内容审核机制。

当前平台主要依靠发布者自行标注,缺少有效的验证办法,这种依赖诚信的机制存有显著缺陷 ,平台理应投入更多技术资源去开发AI内容检测工具 ,而不是把责任全部转交给内容创作者 。

创作者测试暴露系统漏洞

曾有AIGC创作者,向记者透露,其曾故意在某平台上传AI生成的内容进行测试,该平台未能识别,这种主动测试充分表明现有检测系统存在明显的漏洞,该创作者建议平台应当建立更为严格的检测机制。

处在实际测试期间,即便新规已然推行,小红书之类平台当中,依旧有着未作标注的疑似AI创作内容,这些内容于画面周边以及文字叙述区域,都不曾呈现任何标识,寻常用户很难分辨其确切源头。

技术识别能力亟待提升

依据测试得出的结果来看,平台当下所具备的AI识别技术距离成熟相距甚远,无论是“萌宠变装”这种类型,以及“AI美女”这类常见的AI视频,平台的检测成功率都难以达到理想状态,技术团队需要针对不同类型的AI内容去开发专门的识别算法。

格外是针对去掉水印的那种 AI 内容,平台检测完全是“全军覆没”的状况。这种情形代表识别技术对于诸如明显的水印特征过度依赖,然而却缺少针对内容本身特征的分析能力。很显然地看得出技术升级已经是极为迫切、紧近眼前、刻不容缓的了。

9月1日起AI生成内容须加标识,主流平台测试情况如何?

标准执行需要多方协同

新国标的施行,需平台予以配合,需创作者进行协助,需监管方参与其中。平台要优化产品设计,从而让标注流程更为便捷,还要加大技术投入,以此提升自动识别能力。创作者需主动履行标注义务。

监管部门要构建清晰的奖惩机制,针对执行不力的平台予以督促整改。唯有形成多方合力,才能够保证AI内容标识制度切实落地,进而保护广大用户的知情权。

你于运用网络平台之际,可有碰到过难以分辨真假的AI生成内容呢,欢迎于评论区分享你的经历,倘若觉着这篇文章有帮助,请点赞予以支持!