据站长之家 1 月 8 日报道,AI 初创公司 Anthropic 近期面临艰难处境。该公司旗下 AI 产品 Claude2.1 推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。 问题的根源在于 Claude2.1 严格遵循其发布的 AI 伦理宪法,在安全和道德判断上变得过于谨慎和守法。这导致 Anthropic 在追求 AI 安全的过程中,不得不牺牲部分产品性能。大量付费用户对此表达了强烈不满。他们纷纷在社交平台上抱怨 Claude2.1“已经死了”,并表示准备取消订阅转而使用竞争对手 ChatGPT。 业内人士指出,Anthropic 的困境再次凸显了创业公司在 AI 领域面临的两难。为确保 AI 安全严格自律无疑是正确的方向,但过度考量道德和法律后果可能让公司失去先机,并在日益激烈的竞争中处于下风。 此前报道,Anthropic 推出 Claude 2.1 模型,拥有 20 万上下文窗口。
AI 初创公司 Anthropic 面临用户流失危机,安全考量或让其失去先机
本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a91852.html