近日,Google发布了针对生成式AI应用程序的新指导方针,旨在减少“不适当”和“被禁止”的内容传播。Google Play Store宣布了对这类应用的整顿,要求所有提供生成式AI功能的应用采取有效措施,防止不当内容的生成和传播。
新政策概述
根据最新政策,所有生成式AI应用必须采取严格措施,防止生成和传播色情、暴力等受限制的内容。开发者需要对AI模型进行严格测试,确保其生成的内容符合社会道德和法律规定。
适用范围
新政策适用于基于文本、语音和图像输入提示,通过AI生成内容的各类应用,如聊天机器人、图像生成器、语音和视频生成工具。然而,这一规定并不适用于那些仅作为AI内容展示平台的应用,或者将AI作为提高工作效率工具的应用。
违规内容类型
Google Play特别指出了AI生成的违规内容类型,包括但不限于:
- 深度伪造材料
- 诈骗辅助内容
- 鼓励危险行为的内容
- 欺凌和骚扰行为
- 满足性需求的内容
- 生成虚假官方文件
- 恶意代码等
提升应用上架透明度
为了提升应用上架的透明度和简化流程,Google计划增加新的功能,使开发者能够更加方便地向商店提交他们的AI应用。
维护数字环境健康
通过这些措施,Google展示了其维护数字环境健康、保护用户权益的坚定决心。这不仅有助于提升用户体验,也促进了AI技术的健康发展和应用。随着新规的实施,我们期待看到一个更加清洁、有序的数字世界。
Google Play Store的这一整顿措施是对生成式AI应用的规范和约束,旨在防止不当内容的传播,保护用户权益,维护平台的健康发展。开发者在开发和提交AI应用时需严格遵守相关规定,以确保生成的内容合法、合规。随着政策的实施,数字环境有望变得更加安全和有序。