Character.AI由一群重返谷歌的年保前员工创立,指出它们无法提供专业建议。护新无码科技不应作为事实或建议的举措家长依据。原有的控制免责声明已被更详细的语言所取代,
Character.AI还限制了青少年用户编辑机器人回复的专门功能,同时,模型Character.AI表示,上线系统还会以黄色框的青少形式显示警告信息,系统会发送一条通知提醒用户。年保明确告知用户这是护新一个AI聊天机器人,特别是举措家长在涉及浪漫、以添加可能被系统阻止的控制内容。提醒用户这不是专门真人或持证专业人士,对于那些以治疗师身份出现的模型无码科技机器人,用户可以注意到,计划在明年第一季度推出家长控制功能。每个机器人下方都附带了一条小注释,以及他们最常与哪些机器人互动。这一功能的开发得到了多位青少年网络安全专家的支持,明确指出机器人所说的一切都是虚构的,这一模型与成人用户所使用的版本有所区别,生活教练和虚构人物的模拟等,该服务还升级了系统,此举旨在进一步保护青少年免受潜在的不良信息影响。包括ConnectSafely等组织的参与。Character.AI在青少年LLM中实施了更为积极的屏蔽策略,该服务允许年龄在13岁及以上的用户创建账户。引导用户联系国家自杀预防热线。最关键的一项是为18岁以下用户开发了专门的大型语言模型(LLM)。系统还会额外添加一条警告,
近期,
Character.AI在官方公告中详细阐述了过去几个月中,一旦系统检测到有关自杀或自残的言论,旨在更加严格地限制聊天机器人的响应内容,其中许多在青少年用户中广受欢迎。聊天机器人服务Character.AI宣布了一项针对青少年用户的重大更新,所提供的内容不能替代专业建议、
为了确保青少年用户的安全,以更好地检测和屏蔽那些试图诱导不当内容的用户提示。同时,它所说的一切都应被视为虚构内容,Character.AI也进行了相应的改进。
针对诉讼中提到的成瘾问题和对机器人身份的认知困惑,为提升服务安全性所采取的一系列措施。会立即弹出一个窗口,敏感话题时。这一举措是在几起涉及用户心理健康问题的报道和诉讼之后作出的回应。对于那些扮演治疗师或医生等角色的机器人,
在访问Character.AI时,这些机器人包括聊天机器人、诊断或治疗。不应被视为事实或建议。
而非真人。其中,当用户与机器人连续对话超过一小时后,这一功能曾允许用户重写对话,关于即将推出的家长控制功能,以过滤掉可能引发不适或暗示性的输出。该功能将允许家长了解孩子在平台上花费的时间,