本地部署私有化大模型vllm+open-webui
1. vLLM简介
vLLM(Vectorized Large Language Model Serving System)是由加州大学伯克利分校团队开发的高性能、易扩展的大语言模型(LLM)推理引擎,专注于通过创新的内存管理和计算优化技术实现高吞吐、低延迟、低成本的模型服务。vLLM采用PagedAttention内存管理技术,显著提升...
vLLM(Vectorized Large Language Model Serving System)是由加州大学伯克利分校团队开发的高性能、易扩展的大语言模型(LLM)推理引擎,专注于通过创新的内存管理和计算优化技术实现高吞吐、低延迟、低成本的模型服务。vLLM采用PagedAttention内存管理技术,显著提升...
使用python进行开发时,会用到很多特定的库,一个成熟的python项目必然会依赖很多特定的环境。然而项目运行的结果不仅取决于代码,和运行代码的环境也息息相关。这很有可能会造成,开发环境上的运行结果和测试环境、线上环境上的结果都不一致的现象。为了解决这个问题,可以将python项目打包成docker镜像,这样即使在不同的机器上运行打包后的项目,我们也能够得到一致的运行结果。因为doc...
内网环境下,安装docker和docker-compose需要自行下载安装包到本地,然后配置docker服务,下面简单说说如何在内网离线安装docker。如果不关心安装过程中的细节,可以直接跳到一键安装和一键卸载。
第一步,根据自己的服务器架构类型选择...
最近在工作中做到了一些前端开发工作,由于工作环境受限,只能使用原生的js,在开发过程中遇到了跨域请求问题,特此记录。
本质上是浏览器有同源策略限制。同源策略(Same Origin Policy) 是一种约定,是浏览器最核心的安全功能,如果缺少了同源策略,浏览器的正常功能可能会受到影响。可以...
OpenEnclave(OE)是微软开发的TEE软件栈,它支持Intel SGX和OP-TEE on Arm TrustZone,值得注意的是,OE和linux-sgx两者互为替代关系。同时OE也支持C/C++。OpenEnclave的一个主要用途是在微软Azure云上保护目标安全。
该SDK旨在推广来自不同硬件供应商的tee之间的enclave应用程序的开发。当前的实...
机密计算底层依赖的可信执行环境(TEE)技术——比如目前最成熟的云端 TEE 技术 Intel SGX——也带来了额外的功能限制和兼容问题。这使得机密计算的开发者面领一个巨大的阻碍:应用开发难。
Occlum 是一款蚂蚁集团开源的 TEE OS,可以大幅降低 SGX 应用的开发门槛。具体的操作流程如下:
毕业院校、项目经历、实习工作经历,简单介绍掌握的技能。
给定二叉树中指定节点和一个整数k,寻找距离指定节点距离为k的所有节点:
要求:时间复杂度 $O(n)$, 空间复杂度 $O(n)$
思路:如果给定节点为父结点,寻找距离其为 k 的节点可以...