肯睿Cloudera大中华区技术总监刘隶放表示:"随着中国企业对人工智能的需求日益增长,如何快速、安全地将AI技术落地成为企业的核心诉求。Cloudera全新推出的AMPs不仅为企业提供了可一键部署的AI解决方案,更通过开源的方式缩短企业部署时间,减少安全和法律风险。尤其是在中国这样一个高度创新和快速发展的市场,AMPs为各行业采用AI提供了一个高效、可靠的途径,加速AI项目的实施,助力企业在激烈的市场竞争中抢占先机,实现数据驱动的智能化转型。"
可信的数据、分析和AI混合平台厂商肯睿Cloudera今日宣布推出六款全新机器学习项目加速器(AMPs),旨在缩短企业实现AI用例价值的时间。六款新产品可在Cloudera平台中为企业提供先进的AI技术和示例,以助力企业实现AI集成,并取得更有影响力的成果。
AMPs是基于机器学习(ML)的端到端项目,可直接通过Cloudera平台一键部署。这六款AMPs融入了行业领先的实践,以应对复杂的ML挑战,无论企业在何处运行示例或部署数据,都可通过工作流程实现无缝衔接。
肯睿Cloudera致力于通过AMPs系列产品使AI更易于使用,从而加快企业采用AI的速度,同时更大限度地提高自身数据和所生成的AI输出的价值。最新的AMPs和更新内容包括:
- 微调工作室(Fine-Tuning Studio):为用户提供全方位的应用和 "生态系统",用于管理、微调和评估大语言模型(LLM)。
- 附带知识图谱的 RAG(RAG with Knowledge Graph):展示如何利用知识图谱为 RAG(检索增强生成)应用提供助力,以捕捉仅靠向量存储无法轻易获取的关系和上下文。
- PromptBrew:通过简单的用户界面提供AI智能辅助,创建高性能、可靠的提示。
- 使用 Cohere CommandR 和 FAISS进行文档分析(Document Analysis with Cohere CommandR and FAISS):展示将CommandR作为LLM和将FAISS作为向量存储的RAG。
- 文档聊天(Chat with Your Documents):基于之前的使用企业数据AMPs增强的LLM聊天机器人,可通过用户上传的文档创建的内部知识库中的上下文,提高LLM的回答质量。
除了加速AI项目外,肯睿Cloudera AMPs 也是开源的,包含适用于各种环境的部署说明,进一步体现了肯睿Cloudera推动开源社区发展的承诺。
Futurum Group首席技术顾问 Steven Dickens 表示:"尽管几乎所有企业都在尝试使用生成式AI,但这项技术仍然是一个非常新的事物,以至于适用于企业的代表性实践非常少。因此,数据科学家和AI工程师在启动新的AI项目时,通常会以现有的实例为基础。但这种方法有很多缺点,比如增加了安全和法律风险等。AMPs通过提供完整的端到端解决方案,消除了这种不确定性,为数据科学家提供了一个即用型MVP,适用于各种已被证明有效且能够快速创造价值的AI用例。"
肯睿Cloudera首席产品官Dipto Chakravarty表示:"当今环境下,企业在启动AI项目时受到时间和资源的限制。我们的AMPs为他们注入了一针'强心剂',借助预先构建的解决方案和工作示例快速将AI项目从概念变为现实,在确保用例可靠性和成本效益的同时,缩短开发时间,让企业能够迅速体会到AI项目所带来的生产力和效率提升。"