近期,领先的客户互动和营销科技服务商极光宣布推出GPTBots平台,该平台支持一键接入多个主流大模型,同时支持开发者将LLM(大语言模型)与企业数据、服务能力无缝连接,建构企业自己的AI Bot服务,并开放注册。
“人工智能是未来10年最大的生产力变革机会,每一个企业都要拥抱它,未来能不能用好AI,是一个非常核心的竞争力。”
极光CEO罗伟东认为,生成式AI正迎来爆炸式增长,其应用领域涉及Microsoft、微软、Salesforce、Meta以及Adobe等知名企业。这为企业带来了巨大的发展机遇,但同时也存在认知与技术鸿沟。
在他看来,许多企业使用GPT等技术时,往往仅限于生成文章或图像,而未能充分利用其内部数据和知识。这导致了巨大的机会和潜在的利益损失。企业需要将GPT等技术整合到其业务流程中,以提高效率并创造新机会。
当前,国内大模型正蓬勃发展,无论是百度、阿里、字节等大厂都推出了自己的大模型。但在应用方面,生成式AI还存在幻觉问题,许多通用大语言模型缺乏垂域知识,导致无法解决复杂任务。
对于企业而言,应用AI模型涉及合规、数据、算力、工程和算法等多个环节,任一环节出现质量问题都会影响到应用场景的实施。
举例来说,在医疗问答场景中,通常需要涉及患者的敏感个人信息,如医保卡账号、病历记录和药物使用情况。如果AI应用系统出现数据调用错误,可能会对后续的诊断产生不良影响。在这种情况下,专门设计用于医疗场景的AI模型可以起到关键作用,它能够标记潜在的隐私或关键病历信息,并提醒后台医生或客服人员进行审核,这种功能将降低问诊的成本,同时减少了潜在风险。
在罗伟东看来,这些问题可以通过创建自定义的AI BOT(或AI Agent)
来解决,结合企业内部数据和领域知识,并通过API集成到流程业务中。这种方法不仅适用于大型企业,即使没有大量研发资源的小型公司也可以轻松应用。企业应积极探索如何利用这些技术,无论是否拥有大量数据。
他表示,正是看到了企业的需求,极光基于多年开发者服务积累,推出了GPTBots开发平台。极光GPTBots平台上,开发者只需要具备生成式AI和相关领域知识,就可以构建自己的AI Bot,并将其接入企业服务,其中包括开箱即用的LLMs、Plugins、长/短期记忆、知识库和flow等功能,帮助企业量身定制AI Bot应用。
未来,生成式AI将成为企业提升效率和节省成本的工具。不过,罗伟东认为,在最大程度地利用生成式人工智能,企业间并非是缩小差距,反而会因为AI应用的落地拉大差距。
每一个革命性技术的诞生到落地应用,都需要一定的接受时间,同时也面临用户的隐私和数据安全,其次是算法的优化和模型的迭代。对于企业而言,需要深入研究如何最大程度将生成式AI技术与自身业务相结合,才避免被时代淘汰。
以下是采访实录(原文基础上有删改):
Q:ChatGPT爆红之后,许多企业高层都会有很大的焦虑感。您的感受是什么?
极光CEO罗伟东:我认为将其比作iPhone时刻一点也不夸张,我是连续创业者,我清晰地记得当年iPhone问世的那一刻,这两个感受非常相似。不过,我也相信它还需要时间来实现各种应用的成熟,就像iPhone问世后,一年以后才出现应用市场,应用生态也是2、3年后才逐渐起来。
Q:极光发布了GPTBots,您是看到了什么机会?
极光CEO罗伟东:许多企业使用GPT等技术时,往往仅限于生成文章或图像,而未能充分利用其内部数据和知识。这导致了巨大的机会和潜在的利益损失。企业需要将GPT等技术整合到其业务流程中,以提高效率并创造新机会。这可以通过创建自定义的AI BOT来实现,结合企业内部数据和领域知识,并通过API集成到流程业务中。
这种方法不仅适用于大型企业,即使没有大量研发资源的小型公司也可以轻松应用。企业应积极探索如何利用这些技术,无论是否拥有大量数据。基于企业这样的困扰,我们推出了GPTBots开发平台。
Q:可以详细说下 GPTBots 的插件功能吗?
极光CEO罗伟东:首先,我们要了解什么是LLMs的插件:LLMs插件区别于传统插件,它独立、灵活、自由、功能强大,大语言模型插件的核心是Web API,因此大语言模型插件完全拥抱互联网,同时,没有开发语言“歧视”,无论开发者的语言栈是Python、Java、Go、PHP等,只要可以开发HTTP协议接口,遵循RESTful规则,就可以构建大语言模型插件。GPTBots插件融合了ChatGPT插件创建规范(通用的OpenAPI规范)和函数调用功能,让开发者只需专注于自身功能接口开发,同时GPTBots也会自动兼容市面上主流已支持插件能力的 LLM。
举个例子,考虑一个邮件服务的情况,如果有客户想要从新加坡寄一封信到美国,他们可能会询问该服务的费用。这个价格可能是不断变化的,存储在结构化的数据库中在这种情况下,我们可以提供一个价格查询插件,通过它可以调用并获取这个动态数据。
开发者可以根据需求创建插件自定义,通常用于处理企业内部的结构化数据服务。例如,企业的 HR 部门可以开发一个插件,用于查询员工的假期余额。
Q:企业目前要应用大模型存在哪些问题? GPTBots是如何帮助企业解决这些问题的?
极光CEO罗伟东:企业要开发一个AI Bot,开发者需要具备一定的技术技巧和相关领域知识。从学术理论到商业产品,涉及到机器学习工具、编程语言、框架、前后端工程师、运维工程师等多个方面的专业知识。这对于企业来说是一个挑战。
我们的平台上,开发者只需要具备生成式AI和相关领域知识,就可以构建自己的AI Bot,并将其接入企业服务。我们提供了简单、高效和安全的LLMOps平台,其中包括开箱即用的LLMs、Plugins、长/短期记忆、知识库和flow等功能,帮助开发者为其业务量身定制AI Bot应用。
Q:如何看待开源跟闭源大模型的关系?GPTBots 是否都会支持?
极光CEO罗伟东:开源在AI领域的发展确实非常强大,而且开源社区在不断创新和迭代,迎头赶上了一些领先的原生技术。未来,开源很可能成为主流,原因在于它满足了不同规模的企业和需求。
对于中小型企业,他们可以使用OpenAI、百度或阿里的云端服务,在满足其需求的同时还降低了技术关税。而对于大型企业和政府部门,他们可能更倾向于使用私有化部署开源模型以确保数据隐私和安全。所以,GPTBots 也提供了支持和开源模型结合的私有化部署的解决方案,可以满足不同规模和性质客户的需求。
Q:大型企业普遍担心的数据安全性问题,我们有什么办法?
极光CEO罗伟东:对于企业担心的安全问题,我们提供了一些解决方案。如果企业使用公有的模型,他们可以采取一些措施来保证数据的安全性,例如在传输时提取用户的敏感信息。如果用户在医疗问答中询问有关个人身体症状的问题,企业可以对其中的敏感信息进行脱敏处理,如姓名和医疗卡号,再将脱敏后的数据提交给GPT模型。然后,GPT返回答案,并将答案中的敏感信息进行替换,以保护用户的隐私。
另一个解决方案是在企业内部进行数据过滤,以确保敏感信息不被提交给模型。企业需要自行处理这一过程来规避风险。企业还可以选择本地化部署开源模型,但这样需要更高的成本,包括硬件和GPU。
Q:GPTBots的盈利模式是什么样的?
极光CEO罗伟东:对于公用版本,我们采用包年订阅的方式,并根据使用量和功能进行不同的定价。我们提供了标准的SAAS模式,这是我们之前一直在使用的模式。如果企业选择本地化部署,我们提供私有化版本的定价以及相关的服务。私有化版本的价格通常会包括硬件和服务成本。
Q:您最后还有什么想分享的吗?
极光CEO罗伟东:人工智能是未来10年最大的生产力变革机会,每一个企业都要拥抱它,未来能不能用好AI,是一个非常核心的竞争力。而AI-BOT开发平台的出现,不仅为企业提供了应用实践的机会,也为整个AI行业的发展带来了新的动力。