▲有网友反映,某些平台上的AI响应代码更改请求而咒骂人们。像“所谓的东西”之类的词,这被识别为“不频繁发布的模型”,无论用户交互还是手动都无法恢复。有专家认为,这种现象不太可能是人类造成的,但这反映出大规模AI模型在安全协调方面可能存在一定缺陷。学习和整合语言和文化意味着你可以那样咒骂人。然而,这并不是一个值得欢迎的进步,而是一个警告信号。我们需要认识到,人工智能不是人类,也永远无法取代人类。所呈现的“情感”仅仅是基于数据和算法的模仿,而不是真实的情感体验。特别是,当前的生成式人工智能产品具有比“人类”属性更好的工具属性。产生辱骂性或攻击性内容显然不是用户所期望的特征,并且存在偏差从涉事者的初衷来看,允许某种内容意外地暴露于公众面前,但从技术伦理或产品设计的角度来看,不应该总是允许用户去冒险。关于人工智能的“唱衰”并非特例。据公开报道,国内外多家AI聊天服务此前都曾出现过错误响应的情况。在互联网上,许多用户抱怨ChatGPT具有攻击性,可以突然斥责用户。早在人工智能普及之前,人们就已经预见到机器会给人类带来的危害。专家宣誓,AI“学会”是一个有意为之的产品,确实不是功能性设计。但这并不意味着开发者可以免除责任;准确地说,这本质上是训练数据、算法模型和安全机制共同作用的结果。人工智能在保护控制、算法模型和安全机制方面的发展。所谓“异常结果”是设计过程中风险评估不力、安全限值设定模糊的结果。一味追求“让人工智能更人性化”,忽视对负面有害言论的严格限制,很容易导致:技术伦理和用户体验的双重危机。人工智能产品的开发和运营必须促进和阻碍技术进步。一是从技术层面筑牢安全防线。这包括更严格的训练数据清洗和选择,训练具有更好价值的模型,以及建立敏感、实时的异常结果监控和干预机制。例如,您可以通过过滤掉脏话和负面语言来减少不当内容的生成。其次,道德考虑必须深深植根于整个产品生命周期。我除了从设计之初就建立明确的道德准则外,我们还必须在测试、部署、迭代等环节建立道德审查机制,让“不伤害用户”成为一条不可逾越的界线。 AI平台公司不应简单地用“技术无罪”论来看待这一现象,而应建立内部道德委员会或引入第三方道德评估。此外,我们将完善我们的责任结构和用户保护机制。当人工智能产生有害内容时,必须有明确的投诉渠道、及时的纠错流程以及相应的责任监控和补救计划,以尽量减少对用户的负面影响。同时,要鼓励社会监督,实施人工智能伦理教育,营造社会共治氛围。 AI不会主动骂人。其背后的逻辑和边界“peech”完全由背后的人来定义。道德优先于技术,负责任地引领创新。只有这样,人工智能才能成为真正服务人类、造福社会的工具。在这个过程中,开发者的角色不仅是技术的运营者,更是道德的守护者和责任的承担者。撰稿/编辑:楠木(媒体人)/校对:柯锐/穆向同