新闻  |   论坛  |   博客  |   在线研讨会
坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」(2)
机器之心 | 2023-07-03 19:53:12    阅读:121   发布文章

总之,Model factory、Benchmark System 加上 Chat Search,一个大模型驱动的语义搜索引擎,三大要素紧密联动,使 EmotiBrain 可敏捷应用于复杂及多变的场景中,并给予强大灵活的支持。 


「EmotiBrain 可以在几天甚至几个小时内帮你选出最适合的大模型,通常需要一个模型工程师花好几个月才能做到,甚至因缺少人才或 know-how 都无法完成可用的模型,白白浪费的资源。」简仁贤说。 


另外,EmotiBrain 还有一个非常好用的 GPU 资源调度功能,自动帮你调度云资源或本地 GPU 资源。这样,一般不懂IT业务的人员也可以用这个微调平台来训练自己的模型,「他只要需要知道数据从哪来的。」 


三、如何可控?四步应对模型幻觉 


可定制化实现后,还有一个问题。许多创始人对在他们的产品和工作流程中实施大模型持谨慎态度,因为这些模型有时就像小孩子——会编造事情,对幻想与现实没有牢固的把握。有媒体报道,美国律师使用 ChatGPT 提交法庭简报,结果引用的6个案例都是 ChatGPT 编造的虚假案例。 


「产生幻觉,其实是生成式 AI 的一个特点。」简仁贤认为,创造力是知识生成的一个主要来源,如果百分百避免幻觉,模型也会失去创造力。不过,EmotiBrain 也有办法帮助企业更好控制模型的输出。 


例如,在模型推理阶段,用户可以根据不同业务需求,调整「temperature」的数值,低温度可以生成更加专注、保守和一致的回答。这种方式在营销人员需要准确、精确的答案或者遵循特定格式或品牌指南的信息时非常有用。


中温度的话,能够在创造力和一致性之间取得平衡。这种设置非常适用于一般内容生成,因为需要准确性和创新的结合。高温度可以生成更具创意、多样化和出人意料的输出。营销人员可能会在头脑风暴创新的活动想法、制作引人入胜的社交媒体内容或寻求对某个主题的新鲜视角时更喜欢使用这种设置。 


除此之外,模型可控能不能做到100%还取决于微调过程。 


就企业私域问答部分来说,完全可以做到可控。企业可以花大量精力做好知识准备、知识清洗和审核。训练后,还可以用人类对齐(alignment )的方式控制输出质量。 


比如,你可以给输出的答案做标注,告诉模型哪个是对的、哪个是错的,用基于人类反馈的强化学习的方法(RLHF)进行再训练,模型就知道对与错,自动减少胡言乱语的回答,但是RLHF要做得好,对使用数据与标准数量和质量就有要求。 


值得一提的是, EmotiBrain 还提供审核机制——「用大模型去做 reflection ,把 reflection 放到大模型里」,让大模型拥有自我检视的能力。 


「这个咖啡很难喝」,在讲出这句话之前,人们会先问自己这句话对吗?是不是符合商业规范或道德标准?有没有人身攻击?有没有牵扯到政治? 


「所有这些环节,一个前面的大模型反思模型、加上基于人类反馈的强化学习、私域数据的掌控,还有 temperature 也可以调。我们都会提供工具和评测去帮助他们做好这些控制。」简仁贤总结道。 


四、KKBot 的想象力 


除了 EmotiBrain,安装了这台发动机四款「车型」中,最值得关注、也最具想象力的是 KKBot ,你可以将它视为国内版本的 Office Copilot,可以存在任何地方。

 

它可以是一个浏览器插件,根据你浏览网页的内容,答问题、做总结,任何 web application,KKBot 都是 Copilot。「Chrome 能用,我们现在准备适配 IE 浏览器。」简仁贤告诉我们。 


它还会出现在常用企业软件里(例如网页版的办公软件、竹间智能的产品),根据你的 query 自动生成想要的总结、图片、统计表格、数据分析等。在他看来,「传统的 BI 可能会被大模型颠覆掉。」 


它甚至可以在企业 DIY 大模型过程中,充当助手。如果企业将自己的私域数据放到 Knowledge Factory ,那么,KK bot 可以在 Knowledge Factory 的文档与知识库里,找出大模型生成的一些令人生疑的回答的来源。如果找不到某句回答出处,大概率是模型在乱讲。 

最有意思的是在 KKBot 加持下,公司最畅销的Bot Factory 脱胎换骨,升级到 Plus。 


竹间智能早在 2017 年就推出了 Bot Factory,企业客户可以在这个工厂里做各种机器人——智能客服、对话机器人、问诊机器人、故障排除机器人、专家机器人等。有些企业甚至用 Bot Factory 在企业内部做了 1000 多个机器人。 


现在,这些经过行业验证和打磨的产品又成为竹间智能部署在客户侧的「尖兵」,也是接入底层大模型能力的关键入口。如果可以帮助企业轻松定制自己的模型并嵌入到这些入口,无需带着新品教育市场,竹间智能就能将新的底层能力出售出去。 


以前我们用小模型去训练可能需要花两天的时间。现在,机器人的问答跟知识全部由大模型生成,只要两个小时,运营成本降低了90%以上。简仁贤解释道。 


KKBot 可以帮你生成知识,帮你对齐知识。比如,你给它输入《保险法》,输入完以后,它自动从《保险法》里抽出来所有的知识跟所有的问答,抽出来之后,自动训练 Bot Factory+ 的对话机器人,两个小时可以回答上千个问题,95% 以上准确率。 


整个过程都是自动的,无需人为干预。跑完以后,再由人工测试。如果对输出结果满意,就能发布上线。 


KKBot 作为 Copilot,还有一个很大的优点。简仁贤强调说,「它不是一个模型的Copilot,而是多个不同模型的 Copilot,可以跟所有模型去兼容,当企业不同部门或项目组有多个模型在运行时,KKBot 可以选择不同模型来回答,完全不受单一模型限制。」 


比如,可以接竹间大模型魔力写作与 ChatLLM,华为盘古大模型的 API,海外用户可以去接 GPT-4 或 GPT3.5 Turbo的 API,甚至包括企业自己训练出来放到 EmotiBrain 里的大模型。 


「切换不同的大模型,展现出来的能力也不一样。」 


五、「租」得起:99万包年 


竹间智能的目标是将人工智能平民化,让所有的企业都有自己的大模型,都能负担得起的大模型。「工厂(factory)」就是实现这一目标的技术手段。 


现在,从「工厂(factory)租金来看,根据所需GPU的数量不同,「1+4」PaaS 年订阅服务的费用也有两个档次。 


如果仅需 1-8 个GPU,一年订阅价格 99 万。超过 8 个 GPU,一年的套餐价格 149  万。具体情况,依据不同行业、不同企业部门要求不同。 


例如,训练一个比较复杂的模型,假设 330 亿参数,用一块 GPU 可能需要 1-5 天。很多时候,在预算有限的情况下,99 万的套餐也就够用了。当然,如果预算比较富裕,企业也希望数小时就能训练好,8 个 GPU 可能不够用,可以升级到 149 万元的套餐。 


「相比花 2000 万买个行业大模型,还冒着走弯路的风险,我们的产品用起来比较安心」,简仁贤认为,「你只用花 99 万,就可以定制出适合你的模型,而且没有限制模型数量,并可以立刻在现实应用中看到它的价值,也不受云计算厂商的限制,不用绑定任何云计算资源。」 


这些工具都是免费升级,而且做出来的模型都属于客户,「我们不 own 这个模型,我们也不卖模型,我们只是把这个 PaaS 租给你用,让人去定制模型。」他补充说,「也就是说,我租给你的是一个模型工厂。」 


图片


其实,OpenAI 这样的公司只是给我们指明了一个方向。开源社区会根据这个方向做出更创新的东西,进而成为企业落地大模型的主流。 


简仁贤预测,未来 6-12 个月,开源社区也会出现更多新的前沿训练和微调技术,不断降低大模型对内存、GPU 依赖,降低微调和训练成本,不断提升训练速度。更新的模型框架也会出现,更多的具备通用能力的指令集也会问世,更多的不同语言的训练集也会在各国地区的努力下开出来,全球范围内的大模型应用会更加广泛,进而加速 Generative AI 与 LLM 技术的快速迭代。 


这个大模型就是每个企业应用的「脑」。未来,每隔一段时间,与「脑」有关的技术都会取得重要进展,比如更好的模型、训练方式、更高质量的数据。 


这个时候,大模型的管理和迭代就显得更加重要。他说,有了工厂流水线,换「脑」就变得很容易。 


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客