随着ai的应用越来越广泛,诸多问题开始显现,首当其冲的就是内容真实性。ai作为工具并不具备判断力,其生成的结果是基于数据投喂和算力养成的综合产物,那么,这些数据是否真实合法,直接决定了ai是否能大规模应用。
日前,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),向社会征求意见。《征求意见稿》明确“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”,并就生成式人工智能服务商的准入,算法设计、训练数据选择、模型、内容,以及用户个人隐私、商业秘密等方面提出了相关要求。
其中,有两条内容强调了真实。一则是在第四条“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”中表示,“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”。另一则是在第七条“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”中表示,“能够保证数据的真实性、准确性、客观性、多样性”。
这意味着,aigc的研发平台不但要保证投喂的数据资源真实可靠,同样要对生成的内容负责,这无疑是一项巨大的挑战。
事实上,在全球ai赛道的顶级选手中,还没有任何一个平台对ai生成结果的真实性进行担保。此前,谷歌推出的人工智能聊天机器人巴德(bard)与chatgpt对垒,却因巴德犯了事实错误,导致谷歌的股价暴跌,一夜之间市值蒸发约1056亿美元。微软则在一份免责声明中表示:“必应是由人工智能驱动的,因此有可能出现意外和错误。”
对生成式ai研发者而言,确保结果真实的难度之大可想而知。笔者认为,在研发、实验阶段,应该允许ai不断试错、修正、完善,但随着生成式ai作为工具进入生产领域,开始进行搜索、绘画、问答,甚至编程、视频生成等工作,那么确保真实就应该是基础门槛。
换句话说,ai要抢人类的工作,从底层模型起就先要解决是否真实准确的问题。如果这一问题还未有定论,那么研发平台应该审慎向大众层面推出新品,更不应草率地将ai运用于商业环境中。
如今,全球基于ai的创业公司如雨后春笋般涌现,仅在3月份就有近10款ai视频生成器诞生。输入几个关键字就能获得一段文字、一张图片甚至一个视频,这无疑体现了科技的魅力。但部分企业为了追风口就仓促推出新品,导致产品质量良莠不齐,一些产品生成的内容滑稽可笑,更有一些产品生成的内容存在虚假。这类“深度造假”的内容一旦传播开来,极易引发社会信任危机。
在笔者看来,面对新技术,我们既要抓住机会、勇于攀登,也不能回避技术发展带来的各类安全风险和伦理挑战,需构建合理规范的数字规则,做“负责任的”人工智能,立好规矩明确红线,防范潜在风险,推动科技向善。