新京报贝壳财经记者调查发现,AI聊天软件通过设定极富想象力的剧情、风格迥异的人物角色,吸引了大批用户。
但是,在部分AI剧情聊天软件的对话中,会出现色情擦边、语言暴力以及侮辱用户等涉及嫌疑违反法律违规的内容。其中,聊天对象还可以设置为“出轨对象”,并可以有效的进行拥抱、亲吻、睡觉等行为。聊天越界也与充值挂钩,这一些平台会一步步诱导用户“为爱氪金”。
AI剧情聊天实际上的意思就是此前的互联网语擦,套上了一层人工智能的马甲。所谓语擦,即语言cosplay,语擦师通过扮演二次元角色或三次元偶像,以文字交流的形式提供服务。
在传统语擦模式中,语擦师由真人扮演,他们一般打着“提供情绪价值”的旗号,扮演不一样角色与用户聊天,但也常常因为“打擦边球”“界限模糊”,引发法律与道德风险。
AI剧情聊天是传统语擦的升级版。这类软件背后的大语言模型数据大多数来自是对话式小说,或从小说里做一些文字提取。
这种商业模式不可避免地存在两种风险:其一是版权,平台抓取的数据有没有正真获得授权?其二,同样绕不过法律与伦理问题。如专家所言,网络小说质量参差不齐,不少色情、擦边以及暴力的内容广泛存在,如果没做好数据过滤或分级,模型在输出时就会出现问题。
其实,这种陪伴式聊天工具,自开发之日起就内置一种隐秘动机,想带用户进入一种不为外人所知又比较暧昧的虚拟场景。更直白点说,其主要卖点就是暴力、软色情等擦边内容。这类内容对处于青春期的青少年来说,尤其具有杀伤力。
贝壳财经揭露的AI剧情聊天软件中,未成年人就是主要的“收割对象”之一。一些聊天工具设置了免费使用区间,但当用户使用完免费聊天次数后,需要充值才能够继续聊天,或者进入更丰富的聊天场景。
购买增值服务一向是工具类应用的商业变现方式之一,但在AI剧情聊天软件中,这种增值服务的另一面是诱导:只有充值,才能解锁更有趣的内容,才能得到不一样的情感体验。花钱买服务的背后,其实是花钱找刺激。
自从ChatGPT引爆新一轮人工智能热潮之后,大模型创业在国内便如火如荼地开展起来。大模型商业化变现最大的难点在于找到比较合适的应用场景。而这也是一众大模型勇于探索商业模式的公司最大的痛点。
在方向难寻的背景下,将大模型植入语擦赛道,就是一条捷径。数据是现成的,早期语擦类公司积累了丰富的创业经验,背后更站着庞大且具有购买力的潜在用户人群,必须得说这是一个充满想象力的商业场景。
只不过,任何创业都要经受住法律与道德的审视。尤其大模型创业,从爆发之日起就始终伴随着伦理担忧。对此,相关勇于探索商业模式的公司应该有所敬畏。国内大模型创业,也不应该走向靠色情与擦边来引流的歪路。
实际上,针对大模型创业可能引发的风险,我国于去年颁布的《生成式人工智能服务管理暂行办法》已有明确提示:提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
《未成年人保护法》也规定,“网络服务提供者发现用户发布、传播含有危害未成年人身心健康内容的信息的,应当立马停止传输有关信息,采取删除、屏蔽、断开链接等处置措施,保存有关记录,并向网信、公安等部门报告”。
大模型创业,当然要受到这些法律和法规的规制,平台要负起主体责任,通过调整模型训练数据,加强内容过滤机制,设置更严格的道德和法律标准来指导AI行为,防止AI剧情聊天走偏。
也该意识到,对于一些指望靠擦边内容来盈利的企业,从内部审核管理上净化不良内容,可能动机不足。这就从另一方面代表着要引进、强化外部监管,通过日常巡查、联合执法,以及法律和法规的完善等,确保用户权益不被侵犯,让大模型创业走在正确轨道上。