每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
谷歌最近被曝出正通过Anthropic的聊天机器人Claude,来优化自家AI模型Gemini的表现。具体操作方式是由一批合同工将两款模型的回答进行对比,分析出谁的表现更优越。
- 合同工会看到Gemini和Claude在相同用户提示下的回答,然后有30分钟的时间进行评估,主要关注回答的真实性 和冗余度,并确定哪个答案更优秀。
- 这些评估人员一开始并不知道对比的是Claude和Gemini,直到某些输出内容中出现了诸如**"我是Claude,由Anthropic开发"**的字眼,才恍然大悟。
- 评估团队还注意到,Claude的安全设置被认为是**"AI模型中最严格的"。在面对一些被视为"不安全"的提示时,Claude会直接拒绝回答,而Gemini却给出了回应,甚至因此被标记为"重大安全违规"**。
Anthropic的用户协议明确规定,用户不得使用Claude来开发竞争性产品或服务 ,也不得训练其他竞争性AI模型,除非获得特别许可。然而,谷歌作为Anthropic的重要投资方,这一限制是否对其有效,目前尚不明确。
谷歌虽然否认使用Claude直接训练Gemini,但也模棱两可地表示:"任何暗示我们使用Anthropic模型来训练Gemini的说法都是不准确的。"
看起来,这两大AI巨头之间的合作与竞争,远比表面看起来要复杂得多