精彩文章
了解商汤AI大装置最新技术动向,感受研发团队硬核实力
LazyLLM破局多Agent应用开发困境,让你“懒”到底!
技术文章
发布于 2025-02-27 14:48:52



嘿,开发者们!2025年GDC全球开发者先锋大会已在上海落下帷幕,这场科技界的大party狠狠地吸引了全球AI大佬、开发者和科技企业的目光。我们的LazyLLM, 这个面向开发者的一站式、开源的、可构建多Agent大模型的应用开发框架可以说是赚足眼球!接下来,请跟随商汤科技创新研发部高级总监张行程的脚步,从一个资深程序员的角度看看LazyLLM如何带你“懒”到底

 


 

LazyLLM的名字是怎么来的?


关于名字我们内部讨论了很久。我们希望大家使用这个工具能方便自己的工作,所以我们直接一步到位,就叫它Lazy!没错,就是你认识的那个单词。你不需要很聪明,也不需要非常精通编程,相反,你越懒,它越能帮你解决问题


LazyLLM具体能解决什么问题?


它解决的是在大模型时代怎么把复杂的大模型通过流程的编辑串成一个一个应用。目前已经有比较有名的项目,比如langchain和llamaindex,这些工具我们都尝试用来构建我们内部的系统平台和应用,但构建的时候发现它部署的程度、上手的难度、封装的程度、微调的需求都很难满足我们的需要。

  


因此,我们开发了一站式多agent应用开发工具LazyLLM。商汤作为一个AI公司,大装置作为算力的服务商,我们希望算力能被大家普惠的用起来。所以从去年起,我们开始在开源社区发力,做开源工具,也就是大家今天可以用到的LazyLLM~


工具那么多,LazyLLM有什么过人之处?



虽然我们搭的是应用平台,但是它是以数据流为核心来搭建AI应用。一个复杂的应用里面包含很多的环节,里面的模块又包含很多的环节,有大模型也有小工具。比如搭建pipeline时如何进行高效的连接,我们可以提供简洁的代码设计,每个组件每个部件它的不同的技术选型,我们都提供了统一的体验。

RAG方面,我们提供灵活的配置10行代码就可以实现多路召回!在部署环节可以进行跨平台,在个人PC、端侧、云侧,私有云、公有云各个不同的云上有统一的部署方式,在多agent的编排我们也能做的很好~

 


代码来了!莫慌莫慌,这里只是给大家秀下肌肉——展示我们怎么做简洁代码设计。大家不用懂这里面的代码,这个例子只是告诉大家:如果实现一个数学公式,lazy大概10行不到的代码就可实现,而LangChain需要15行代码,LlamaIndex则需要30多行代码。只看行数,LazyLLM稳赢哒!我们也想低调,但是实力不允许啊~

 


我们可以做不同技术选型间的统一体验,这是LazyLLM的又一亮点。对于一个模型应用,我们不仅包含模型服务、数据库服务、Prompt等别人有的能力,别人所没有的微调服务我们也稳稳拿捏。现在大多数的平台在用大模型的时候只具备调试Prompt的灵活度,然而在一些细节的和垂域场景下,调prompt没办法达到很好的效果。

LazyLLM可以帮助你对几十到上百条数据进行微调,微调后就可以在比较小的模型和垂直场景下取得比较好的效果。对于推理服务,如果你不用API,想用自己的模型,我们自己的推理框架LIGHTLLM或者是开源的VLLM和LMDeploy我们都支持部署。


  

注意,要上难度了!上面流程图就是最典型的RAG,但它不是简单的RAG,而是多路召回的RAG。如果想把query做好,大多数情况下用多个数据源进行召回,不是只从文档召回,会召回文档、之前的知识库、线上搜索引擎等信息。多路信息的召回融合逻辑十分复杂,但是10行代码我们就能把它定义好,并且还能编辑!对于各个环节比如向量编码的过程,比如模型的方式,再比如要进行最后生成的模型,进行调整修改也都是可以直接替换。同时,只要是模型就可以微调,高效率一键实现!


项目地址https://github.com/LazyAGI/LazyLLM 

项目文档docs.lazyllm.ai

 

 

欢迎扫码进LazyLLM技术交流群

与更多开发者交流!