标签
HAProxy [1]Permalink
负载均衡 [1]Permalink
ssh [10]Permalink
- 远程执行Shell命令
- AI 模型打包发布
- SSH X11 Forwarding
- SSH 登录欢迎信息
- SFTP 客户端
- VS Code远程开发 - SSH
- 命令ssh
- SSH允许使用密码进行root登录
- SSH使用密匙登录
- 开启SSH服务
service [2]Permalink
Ubuntu [21]Permalink
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 加速 Docker 构建镜像
- Ubuntu 上将 NVIDIA GPU 切换为 Intel 集成显卡 IGD
- Install Python3.9 in Ubuntu20.04
- Install NVIDIA device plugin for Kubernetes
- Dockerfile OpenCV4 Ubuntu20.04
- Building ONNX Runtime
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 配置Kubernetes镜像源
- Kubernetes集群搭建Master节点
- Kubernetes集群加入Worker节点
- 在Ubuntu上安装NVIDIA GPU驱动
- 在Ubuntu上配置apt镜像源
- Linux系统禁用交换分区
- Linux系统DNS设置
- Linux系统上修改用户名
- 基于Apt-Cacher NG创建本地Ubuntu存储库
- 安装Harbor
- NFS配置
- Linux系统网络配置
- MAC 远程连接 Ubuntu 桌面
Linux [54]Permalink
- GPU 服务器不能访问
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- Linux 性能优化
- FastAPI 上传和下载文件的基准测试
- Install Python3.9 in Ubuntu20.04
- 命令 nc
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
- 阿里云 yum 安装应用报 404 错误
- 我删库了, rm -rf *
- Json Formatter
- 命令tr
- 在Linux上安装CUDA Toolkit
- 命令lftp
- 命令man help info
- 命令base64
- SSH 登录欢迎信息
- 命令yum
- 将所有的图片文件复制到一个目录
- Linux Shell 实践
- Linux Shell 执行方式
- 抽取视频关键帧保存zip文件
- 基于vsftpd安装FTP服务器
- 命令ssh
- 命令tar
- 命令zip
- 命令cp
- 命令du
- 命令top
- vim实践
- 命令ln
- 命令chown
- 基于Apt-Mirror创建私有Ubuntu存储库
- Apache HTTP Server实践
- Building ONNX Runtime
- 命令ffmpeg
- 命令history
- 命令find
- 命令grep
- 图像格式转换、尺寸调整
- 命令sed
- 命令wget
- 命令ls
- SSH允许使用密码进行root登录
- Linux上查找系统信息
- 配置Kubernetes镜像源
- 在Ubuntu上安装NVIDIA GPU驱动
- 配置Docker镜像源
- 在Ubuntu上安装nvidia-docker2
- 在Ubuntu上安装Docker
- NFS配置
- 磁盘:分区-格式化-挂载
- Linux设置时区
- SSH使用密匙登录
- MAC 远程连接 Ubuntu 桌面
docker-registry [2]Permalink
docker-registry-frontend [1]Permalink
docker-registry-web [1]Permalink
Docker [31]Permalink
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- Docker AI 功能详解与应用
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- Docker 构建多平台镜像
- 构建容器化 Python 应用程序
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
- 命令 alias
- 基于 FastAPI 开发 Ultralytics Serving
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
- MinIO Quickstart
- OpenResty 内执行 Lua 脚本
- 构建基于 ONNXRuntime 的推理服务
- 安装Kubernetes 1.21.5
- minikube
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
- 基于PyPIServer创建私有Python软件包存储库
- Docker实践
- Dockerfile OpenCV4 Ubuntu20.04
- Dockerfile ONNXRuntime GPU
- Building ONNX Runtime
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 使用YOLOv5训练自定义数据集
- 在Ubuntu上安装Docker
- 安装Harbor
- 使用RetinaNet算法训练自定义数据集
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- Dockerfile JDK-MCR(MATLAB Compiler Runtime)
Dockerfile [14]Permalink
- Dockerfile 中 ARG 指令的作用范围
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- 构建基于 ONNXRuntime 的推理服务
- GaiaGPU: 在容器云中共享GPU
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- AI 模型打包发布
- Dockerfile OpenCV4 Ubuntu20.04
- Dockerfile ONNXRuntime GPU
- 使用RetinaNet算法训练自定义数据集
- Dockerfile JDK-MCR(MATLAB Compiler Runtime)
JDK [1]Permalink
MCR [1]Permalink
Network [1]Permalink
输入法 [1]Permalink
目标检测 [8]Permalink
- OpenVINO 神经网络性能分析
- OpenVINO 目标检测
- 使用YOLOv5训练自定义数据集
- 使用RetinaNet算法训练自定义数据集
- 构建YOLOv4容器应用在自定义数据集上
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
Darknet [3]Permalink
YOLO [10]Permalink
- Ultralytics YOLOv8 推理速度对比
- 基于 FastAPI 开发 Ultralytics Serving
- Ultralytics Hub 快速入门
- Ultralytics YOLOv8
- Get Started YOLOv5
- 使用YOLOv5训练自定义数据集
- 将注释从PASCAL VOC转换为YOLO Darknet
- 构建YOLOv4容器应用在自定义数据集上
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
Jupyter [3]Permalink
JupyterHub [1]Permalink
Detectron [1]Permalink
MaskRCNN [1]Permalink
ssh-keygen [1]Permalink
timezone [2]Permalink
VOC [1]Permalink
Format [1]Permalink
XML [2]Permalink
TensorFlow [1]Permalink
RetinaNet [1]Permalink
Keras [1]Permalink
TensorBoard [3]Permalink
Disk [1]Permalink
lsblk [2]Permalink
fdisk [2]Permalink
mkfs [2]Permalink
mount [3]Permalink
fstab [2]Permalink
NFS [2]Permalink
Harbor [1]Permalink
Registry [2]Permalink
wget [2]Permalink
cat [3]Permalink
openssl [3]Permalink
Cache [3]Permalink
apt [8]Permalink
- NVIDIA Driver 安装
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- 使用终端浏览Markdown和HTML
- 安装Kubernetes 1.21.5
- 基于Apt-Mirror创建私有Ubuntu存储库
- 在Ubuntu上配置apt镜像源
- 基于Apt-Cacher NG创建本地Ubuntu存储库
apt-cacher-ng [1]Permalink
Install [15]Permalink
- Gemini CLI - 开源命令行 AI 智能体
- 在 CentOS 上安装 EPEL 软件仓库
- 在 MacBook Pro M2 Max 上安装软件
- 安装Kubernetes 1.26.0
- Install TVM from Source
- NVIDIA 软件栈搭建
- Get Started OpenVINO
- Install Python3.9 in Ubuntu20.04
- 在Linux上安装CUDA Toolkit
- 安装Go
- 命令brew
- Kubernetes集群搭建Master节点
- Kubernetes集群加入Worker节点
- 在Ubuntu上安装nvidia-docker2
- 在Ubuntu上安装Docker
nvidia-docker2 [3]Permalink
- Install NVIDIA device plugin for Kubernetes
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 在Ubuntu上安装nvidia-docker2
用户 [1]Permalink
DNS [1]Permalink
swap [1]Permalink
Mirror [5]Permalink
GPU [16]Permalink
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- 沐曦 MXC500 训练 GPU 的大模型推理性能压测
- 大模型推理需要多少显存?
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- NVIDIA Driver 安装
- 面向边缘场景的 AI 芯片
- Ubuntu 上将 NVIDIA GPU 切换为 Intel 集成显卡 IGD
- 构建基于 ONNXRuntime 的推理服务
- GaiaGPU: 在容器云中共享GPU
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
- Docker实践
- Building ONNX Runtime
- 命令ffmpeg
- Linux上查找系统信息
- 在Ubuntu上安装NVIDIA GPU驱动
NVIDIA [7]Permalink
- 英伟达全栈方案:LLM开发、推理与具身智能
- 具身模型 NVIDIA Isaac GROOT N1 详解
- 具身端侧芯片 NVIDlA Jetson Thor 和 NVIDIA Isaac ROS 介绍
- NVIDIA Driver 安装
- Ubuntu 上将 NVIDIA GPU 切换为 Intel 集成显卡 IGD
- 命令ffmpeg
- 在Ubuntu上安装NVIDIA GPU驱动
YOLOv5 [2]Permalink
PyTorch [4]Permalink
Shell [9]Permalink
- Private GPT
- 命令 alias
- 命令man help info
- AI 模型打包发布
- AI 数据集打包发布
- 将所有的图片文件复制到一个目录
- Linux Shell 执行方式
- 抽取视频关键帧保存zip文件
- 使用YOLOv5训练自定义数据集
for [7]Permalink
- 在Kubernetes上运行第一个应用
- 将所有的图片文件复制到一个目录
- Linux Shell 实践
- 抽取视频关键帧保存zip文件
- 命令ffmpeg
- 图像格式转换、尺寸调整
- 使用YOLOv5训练自定义数据集
sed [7]Permalink
head [1]Permalink
Cluster [2]Permalink
journalctl [2]Permalink
EOF [1]Permalink
Python [20]Permalink
- DXT(桌面扩展)开发指南
- MCPHub 自定义服务器配置及内网部署(二)
- MCPHub 自定义服务器配置及内网部署(一)
- create-mcp-server
- UV: An extremely fast Python package and project manager, written in Rust.
- MCP Python SDK
- 打包 Python 工程到 PyPI:构建 LLM 压测工具 evalscope-perf
- 加速 Docker 构建镜像
- 基于 FastAPI 开发 Ultralytics Serving
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- Json Formatter
- 使用PaddleOCR进行文字识别
- 在 Python 中解析和修改 XML
- OpenCV Python实践
- Docker SDK for Python Examples
- 基于模板创建Job
- 基于PyPIServer创建私有Python软件包存储库
- 配置pip镜像源
- Python文件、目录、路径操作
File [4]Permalink
- FastAPI : Request File and Form(BaseModel)
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- FastAPI 上传和下载文件的基准测试
- Python文件、目录、路径操作
Directory [1]Permalink
Path [2]Permalink
pip [10]Permalink
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- Python 配置共享软件包缓存
- Install Python3.9 in Ubuntu20.04
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- 构建基于 ONNXRuntime 的推理服务
- OpenCV Python实践
- 基于PyPIServer创建私有Python软件包存储库
- 配置pip镜像源
GitHub [9]Permalink
- MCPHub:MCP 服务器聚合平台(智能路由)
- MCPHub:MCP 服务器聚合平台
- Git 命令
- MCP Inspector
- GitHub MCP 服务器
- git 配置代理
- Copilot for CLI
- GaiaGPU: 在容器云中共享GPU
- GitHub加速
curl [12]Permalink
- OpenAI API Compatibility
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- Tabby - GitHub Copilot 的开源替代解决方案
- OpenResty 内执行 Lua 脚本
- 安装Kubernetes 1.21.5
- minikube
- ConfigMap和Secret:配置应用程序
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的Service
- 命令helm
- 基于Apt-Mirror创建私有Ubuntu存储库
- GitHub加速
hosts [1]Permalink
系统信息 [1]Permalink
CUDA [13]Permalink
- Jetson AGX Orin大模型部署挑战与系统升级
- SGLang 大模型服务框架
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 使用 FastChat 在 CUDA 上部署 LLM
- NVIDIA Driver 安装
- Tabby - GitHub Copilot 的开源替代解决方案
- NVIDIA 软件栈搭建
- 构建基于 ONNXRuntime 的推理服务
- 在Linux上安装CUDA Toolkit
- GaiaGPU: 在容器云中共享GPU
- Dockerfile ONNXRuntime GPU
- Building ONNX Runtime
- Linux上查找系统信息
Memory [1]Permalink
硬盘 [1]Permalink
lsb_release [1]Permalink
grep [3]Permalink
cut [1]Permalink
uniq [2]Permalink
root [1]Permalink
systemctl [2]Permalink
init.d [1]Permalink
offline [1]Permalink
ls [2]Permalink
Download [2]Permalink
exec [4]Permalink
Command [8]Permalink
- 命令 alias
- 通过命令使用 ChatGPT
- 在 MacBook Pro M2 Max 上使用 FFmpeg
- 命令open
- 命令curl
- Apache HTTP Server实践
- 命令history
- 图像格式转换、尺寸调整
Image [1]Permalink
file [1]Permalink
find [6]Permalink
convert [1]Permalink
ShellScript [1]Permalink
ll [1]Permalink
delete [5]Permalink
DS_Store [1]Permalink
JupyterLab [1]Permalink
source [3]Permalink
.bashrc [1]Permalink
.bash_profile [1]Permalink
ffmpeg [3]Permalink
basename [2]Permalink
VLC [1]Permalink
Lua [2]Permalink
ONNX [4]Permalink
ONNXRuntime [3]Permalink
OpenCV [5]Permalink
- 基于 FastAPI 开发 Ultralytics Serving
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- OpenCV Python实践
- Dockerfile OpenCV4 Ubuntu20.04
Apache [1]Permalink
none [1]Permalink
xargs [1]Permalink
awk [1]Permalink
inspect [2]Permalink
PyPI [2]Permalink
PyPIServer [1]Permalink
htpasswd [1]Permalink
apt-mirror [1]Permalink
apache2 [1]Permalink
ln [2]Permalink
chown [2]Permalink
vim [3]Permalink
top [1]Permalink
du [2]Permalink
cp [3]Permalink
zip [2]Permalink
unzip [1]Permalink
less [1]Permalink
zipdetails [1]Permalink
tar [3]Permalink
FTP [1]Permalink
vsftpd [2]Permalink
man [2]Permalink
dirname [1]Permalink
mkdir [3]Permalink
if [4]Permalink
chmod [1]Permalink
实践 [1]Permalink
快捷键 [1]Permalink
function [1]Permalink
MicroPython [6]Permalink
- Thonny Python IDE
- IoT 硬件:NeoPixel
- 基于腾讯云物联网开发平台的光照传感器
- 基于腾讯云物联网开发平台的智能电灯
- 基于NodeMCU(ESP32)搭建Python开发环境
- 基于NodeMCU(ESP8266)搭建Python开发环境
NodeMCU [6]Permalink
- IoT 硬件:NeoPixel
- 基于腾讯云物联网开发平台的场景联动(智能电灯和光照传感器)
- 基于腾讯云物联网开发平台的光照传感器
- 基于腾讯云物联网开发平台的智能电灯
- 基于NodeMCU(ESP32)搭建Python开发环境
- 基于NodeMCU(ESP8266)搭建Python开发环境
ESP8266 [4]Permalink
esptool [2]Permalink
SecureCRT [2]Permalink
WebREPL [1]Permalink
upip [1]Permalink
ESP32 [2]Permalink
MQTT [2]Permalink
Helm [3]Permalink
Nvidia [2]Permalink
kubectl [23]Permalink
- Kubernetes中配置调度器
- 安装Kubernetes Dashboard
- 安装Kubernetes 1.21.5
- Kubernetes中的计算资源管理
- Kubernetes JSONPath实践
- Kubernetes中如何恢复误删的节点
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的污点和容忍度
- Kubernetes中的Service
- 基于模板创建Job
- Kubernetes中的Job和CronJob
- Kubernetes中的DaemonSet
- Kubernetes中的ReplicationController和ReplicaSet
- Kubernetes中的名字空间
- Kubernetes中的注解
- Kubernetes中的标签和标签选择器
- 通过端口转发连接Pod
- Kubernetes API
- Kubernetes中删除节点
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
crawler [1]Permalink
PYTHONPATH [2]Permalink
uuid [1]Permalink
vscode [4]Permalink
macOS [11]Permalink
- Dify:开源 LLM 应用开发平台
- Qwen2.5-Omni:端到端多模态大模型
- macOS 解压RAR(Automator)
- macOS PNG重命名并转JPG(Automator)
- macOS 图像拼接工具(Automator)
- 在 macOS 上安装 PostgreSQL
- macOS Docker
- macOS 下的 __MACOSX 目录和 .DS_Store 文件
- 安装Kubernetes Dashboard
- 命令brew
- SFTP 客户端
SFTP [1]Permalink
brew [1]Permalink
NeoPixel [1]Permalink
树莓派 [2]Permalink
ReSpeaker [1]Permalink
麦克风 [1]Permalink
Camera [1]Permalink
Container [1]Permalink
namespace [2]Permalink
cgroup [1]Permalink
echo [2]Permalink
rmdir [1]Permalink
ldd [1]Permalink
egrep [1]Permalink
sort [1]Permalink
chroot [1]Permalink
while [1]Permalink
CentOS [3]Permalink
yum [3]Permalink
motd [1]Permalink
Login [1]Permalink
X11 [2]Permalink
xquartz [1]Permalink
base64 [1]Permalink
printf [1]Permalink
Fritzing [1]Permalink
thonny [1]Permalink
date [2]Permalink
scp [1]Permalink
docker-compose [2]Permalink
help [1]Permalink
info [1]Permalink
certificate [1]Permalink
kubeadm [4]Permalink
drain [1]Permalink
Service [2]Permalink
Deployment [1]Permalink
Node.js [1]Permalink
docker [1]Permalink
api-resources [1]Permalink
explain [1]Permalink
apply [3]Permalink
logs [2]Permalink
port-forward [3]Permalink
label [2]Permalink
annotate [1]Permalink
config [2]Permalink
context [1]Permalink
alias [2]Permalink
bashrc [2]Permalink
ReplicationController [1]Permalink
ReplicaSet [1]Permalink
scale [1]Permalink
DaemonSet [1]Permalink
taint [2]Permalink
toleration [2]Permalink
Job [2]Permalink
CronJob [1]Permalink
Cron [1]Permalink
command [5]Permalink
- Open Model Zoo
- 如何使用 Docker 打包已注册的模型
- ConfigMap和Secret:配置应用程序
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的Job和CronJob
args [2]Permalink
Jinja2 [1]Permalink
Jekyll [1]Permalink
Liquid [1]Permalink
expose [1]Permalink
run [1]Permalink
bash [1]Permalink
env [2]Permalink
JSONPath [4]Permalink
affinity [1]Permalink
nodeAffinity [1]Permalink
podAffinity [1]Permalink
volume [1]Permalink
nfs [1]Permalink
ConfigMap [1]Permalink
Secret [1]Permalink
ENTRYPOINT [1]Permalink
CMD [1]Permalink
nginx [1]Permalink
HTTPS [1]Permalink
DockerHub [1]Permalink
token [1]Permalink
reset [1]Permalink
join [1]Permalink
ServiceAccount [1]Permalink
RBAC [1]Permalink
minikube [1]Permalink
rpm [1]Permalink
iptables [1]Permalink
ifconfig [1]Permalink
route [1]Permalink
LimitRange [1]Permalink
ResourceQuota [2]Permalink
multi-tenancy [1]Permalink
KubeSphere [1]Permalink
Kubernetes [7]Permalink
- MinIO for Kubernetes
- Velero: 备份和迁移 Kubernetes 资源和持久卷
- 在 Kubernetes 上部署 MySQL
- 使用 Prometheus Operator 在 Kubernetes 上部署 Prometheus 和 Grafana
- Elastic Cloud on Kubernetes 快速入门
- 使用 StorageClass 动态创建 NFS 持久卷
- Kubernetes的多租户
tempfile [2]Permalink
f-strings [2]Permalink
Tkinter [1]Permalink
Chinese [2]Permalink
PaddleOCR [2]Permalink
timedatectl [1]Permalink
hostnamectl [1]Permalink
export [1]Permalink
fabric [1]Permalink
ftp [1]Permalink
lftp [1]Permalink
events [1]Permalink
Priority [1]Permalink
Scheduler [1]Permalink
img [1]Permalink
Cambricon [1]Permalink
git [6]Permalink
- git pull 批量更新多个仓库
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- git 配置代理
- Copilot for CLI
- GaiaGPU: 在容器云中共享GPU
- 编译寒武纪MLU220的嵌入式操作系统
lynx [1]Permalink
pandoc [1]Permalink
grip [1]Permalink
Markdown [2]Permalink
Proxy [1]Permalink
kube-scheduler [1]Permalink
Uninstall [2]Permalink
Driver [1]Permalink
lvm [1]Permalink
OpenResty [1]Permalink
Nginx [1]Permalink
jq [2]Permalink
tr [1]Permalink
JSON [2]Permalink
MinIO [1]Permalink
rm [1]Permalink
inode [1]Permalink
PaddlePaddle [1]Permalink
localtime [1]Permalink
word [1]Permalink
python-docx [1]Permalink
excel [3]Permalink
openpyxl [3]Permalink
DIY [2]Permalink
typer [2]Permalink
wrk [5]Permalink
ab [2]Permalink
make [1]Permalink
nproc [1]Permalink
FastAPI [8]Permalink
- 将 API 密钥身份验证添加到 FastAPI 应用程序
- FastAPI 开发 RESTAPI 实践
- FastAPI : Request File and Form(BaseModel)
- 基于 FastAPI 开发 Ultralytics Serving
- 使用 FastAPI 开发 RESTAPI 服务
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- FastAPI 上传和下载文件的基准测试
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
async [3]Permalink
gunicorn [3]Permalink
uvicorn [4]Permalink
nc [1]Permalink
netcat [1]Permalink
Python3.9 [1]Permalink
RESTAPI [2]Permalink
venv [2]Permalink
Workflow [2]Permalink
人脸检测 [1]Permalink
mtcnn [1]Permalink
图像分类 [1]Permalink
googlenet [1]Permalink
ssd [1]Permalink
性能分析 [1]Permalink
wandb [1]Permalink
cuDNN [1]Permalink
TensorRT [2]Permalink
NCCL [1]Permalink
HPC [1]Permalink
Intel [1]Permalink
lspci [1]Permalink
lshw [1]Permalink
accuracy_check [1]Permalink
cross_check_tool [1]Permalink
OpenVINO [2]Permalink
benchmark_app [1]Permalink
Fusion [1]Permalink
Convolution [1]Permalink
BatchNorm [1]Permalink
timeit [1]Permalink
onnxsim [1]Permalink
VPU [1]Permalink
NPU [11]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 华为 Atlas 800I A2 大模型部署实战(一):驱动/固件安装与MCU升级
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
- 面向边缘场景的 AI 芯片
Jetson [2]Permalink
Movidius [1]Permalink
昇腾 [7]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 华为 Atlas 800I A2 大模型部署实战(一):驱动/固件安装与MCU升级
- 面向边缘场景的 AI 芯片
TVM [2]Permalink
EdgeAI [1]Permalink
百度 [1]Permalink
Myriad [2]Permalink
NVMe [1]Permalink
DDR [1]Permalink
LPDDR [1]Permalink
apt-cache [1]Permalink
containerd [1]Permalink
HomeBrew [1]Permalink
Conda [2]Permalink
Miniconda [1]Permalink
MacBookProM2Max [33]Permalink
- Mac 外接显示器 DELL U2723QE
- Mac 外接显示器选购
- Xorbits Inference: 模型服务变得更容易
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 在 MacBook Pro M2 Max 上安装 FastChat
- whisper.cpp
- Qwen (通义千问)
- MLX LLMS Examples
- MLX: An array framework for Apple silicon
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
- 在 Mac 上安装 NGINX
- macOS 能连上 WiFi 但无法上网
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- 加速 Docker 构建镜像
- Python 配置共享软件包缓存
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
- 在 MacBook Pro M2 Max 上测试 LLaMA
- 在 MacBook Pro M2 Max 上测试 Whisper
- 在 MacBook Pro M2 Max 上使用 FFmpeg
- macOS 上删除登录项中允许在后台的项目
- 在 MacBook Pro M2 Max 上安装 OpenVINO
- 在 MacBook Pro M2 Max 上安装 PyTorch
- 在 MacBook Pro M2 Max 上安装 TensorFlow
- 在 MacBook Pro M2 Max 上安装软件
- 在 MacBook Pro M2 Max 上构建开发环境
路由器 [1]Permalink
FileZilla [1]Permalink
ShadowSocksR [1]Permalink
OpenAI [21]Permalink
- FastMCP 实战:构建计算器 MCP 服务器与客户端
- OpenAI: 构建智能体的实用指南
- OpenAI o3 and o4-mini System Card
- Introducing deep research
- CUA 评估额外信息
- Computer-Using Agent
- Operator System Card
- SiliconFlow AI Infra
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 在 MacBook Pro M2 Max 上安装 FastChat
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- CodeGPT: 智能辅助编程
- Langchain‐Chatchat 和 FastChat 结合
- 使用 llama.cpp 构建本地聊天服务
- GPT4All
- OpenAI Fine Tuning
- Whisper 语音识别
- AutoGPT
- ChatGPT 快速入门
LLM [106]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 英伟达全栈方案:LLM开发、推理与具身智能
- 大模型风向标!OpenRouter平台谁最火?热门应用大揭秘!
- DXT(桌面扩展)开发指南
- Docker AI 功能详解与应用
- Gemini CLI 项目分析与开发指南
- Desktop Extensions (DXT)
- Gemini CLI - 开源命令行 AI 智能体
- 人工智能时代的软件 (Software in the era of AI) - Andrej Karpathy
- 探索多模态大模型 Qwen2.5-VL
- Dify:开源 LLM 应用开发平台
- Qwen2.5-Omni:端到端多模态大模型
- SmolAgents 概念指南:Agent 介绍
- 提升 LLM 推理能力:CoT, ReAct, ToT
- Text-to-SQL 解决方案
- DeepSeek-V3 & DeepSeek-R1
- 构建AI代理:5个常见障碍及解决方案
- 利用多张 GPU 训练大语言模型
- 企业级大模型定制解决方案
- 支持 MCP 集成的应用程序列表
- MCP 服务器示例和实现列表
- LLM 推理在软件任务中扮演什么角色?
- 探索生成式人工智能
- MCP 服务器功能
- MCP 基础协议
- MCP 架构
- Model Context Protocol 规范
- MCP Python SDK
- Easy Dataset:基于 LLM 微调数据集的工具
- RAG 2.0
- 大模型实战评测:语言 vs 推理 vs 代码
- Model Context Protocol (MCP) 的核心概念和能力
- 模型上下文协议 (MCP) 全面解析:原理、应用与实现
- 推理 LLM 技术内幕 - DeepSeek-R1/o1
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- 构建本地 AI 技术栈
- 海光 DCU 的大模型推理性能压测
- Cline: 自主编程助手
- 构建自主答题的智能体
- 部署 DeepSeek-R1 蒸馏模型
- 沐曦 MXC500 训练 GPU 的大模型推理性能压测
- SWE-bench: Can Language Models Resolve Real-World GitHub Issues?
- Claude: Developing a computer use model
- UI-TARS: Pioneering Automated GUI Interaction with Native Agents
- Computer-Using Agent
- DeepSeek-V3 Technical Report
- DeepSeek R1: 通过强化学习激励 LLM 的推理能力
- CodeGate - 让 AI 编码助手更安全
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- LangChain Blog: In the Loop
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
- OpenAI API Compatibility
- 部署 LLM 多 LoRA 适配器的推理服务
- AutoTrain
- 推测解码 (Speculative Decoding)
- Reader-LM: 用于清理和转换 HTML 到 Markdown 的小型语言模型
- LLM 的合成数据
- Letta (fka MemGPT) 是用于创建有状态 LLM 服务的框架
- Qwen2 Technical Report
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Langfuse: Open Source LLM Engineering Platform
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
- Kong AI Gateway
- Higress AI Gateway
- 大模型推理需要多少显存?
- RAG 复杂场景下的工作流程和构建知识库的解析方法
- GLM-4V-9B
- Ollama
- LLM 技术栈
- SiliconFlow AI Infra
- CrewAI 快速入门
- 大型语言模型驱动的自主代理
- Phi-3-vision-128k-instruct 微软开源多模态大模型
- MiniCPM-Llama3-V 2.5 端侧可用的 GPT-4V 级多模态大模型
- CogVLM2 智谱开源多模态大模型
- Thoughtworks 技术雷达 第30期
- SWIFT: Scalable lightWeight Infrastructure for Fine-Tuning
- 使用大型语言模型进行命名实体识别
- Xorbits Inference: 模型服务变得更容易
- Meta Llama 3
- Anthropic Claude
- DashScope 模型服务灵积
- Together AI - The fastest cloud platform for building and running generative AI
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- vLLM 部署 Qwen1.5 LLM
- MLX: An array framework for Apple silicon
- Candle
- OLMo - Open Language Model
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- LLM 的基准测试
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- AI 大模型基础服务架构图
- AI 大模型
- Langchain‐Chatchat 和 FastChat 结合
- Microsoft Phi-2
- LLM Leaderboard
- AI 大模型
- State of GPT - Andrej Karpathy
- LangChain - Chain
- LangChain 快速入门
- 在 MacBook Pro M2 Max 上测试 LLaMA
GPT [7]Permalink
- CodeGPT: 智能辅助编程
- 使用 Ollama 构建本地聊天服务
- 基于 ChatGLM3 8k 和 32k 的文档问答对比
- Private GPT
- AI 大模型
- AutoGPT
- 在 MacBook Pro M2 Max 上测试 LLaMA
Comet [1]Permalink
ClearML [1]Permalink
Quickstart [8]Permalink
- CrewAI 快速入门
- Elastic Cloud on Kubernetes 快速入门
- PaddleSpeech 快速入门
- LangChain 快速入门
- Hugging Face 快速入门
- OpenAI API Documentation 快速入门
- Ultralytics Hub 快速入门
- Roboflow 快速入门
Label [1]Permalink
Train [3]Permalink
Deploy [2]Permalink
Dataset [2]Permalink
GitHubCopilot [40]Permalink
- Gemini CLI 项目分析与开发指南
- GitHub Copilot for VSCode v1.100
- 鲁软慧码提示工程实战手册
- 开发 RAGFlow MCP Server
- RAGFlowAssistant
- Visual Studio Code 2025年3月版本(1.99)的新功能
- Continue Agent 使用 GitHub MCP Server
- 使用 Trae 开发 RAGFlow 助手
- Continue 开发环境搭建时遇到了 esbuild 缺失问题
- continue: config.yaml Reference
- 使用 Cline 构建和管理 MCP 服务器:增强 AI 能力的全面指南
- 通义灵码2.0
- Cline: 自主编程助手
- Language Model API
- Chat Extensions (VS Code)
- GitHub Copilot in VS Code
- Personal Work Summary using GitHub Copilot with o1-preview
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Bloop 使用指南
- Cursor 使用指南
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Continue
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
- UnitMesh: AI 赋能软件研发全流程
- Sourcegraph Cody
- 人工智能编码助手(AI Coding Assistant)功能
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- CodeFuse
- Copilot for CLI
- GitHub Copilot - Your AI pair programmer
Neovim [1]Permalink
AI [2]Permalink
SwaggerUI [1]Permalink
Ultralytics [2]Permalink
zsh [1]Permalink
ChatGLM [7]Permalink
- 在 MacBook Pro M2 Max 上安装 FastChat
- CodeGPT: 智能辅助编程
- TensorRT-LLM 大模型推理
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- ChatGLM-6B 模型基于 P-Tuning v2 微调的自定义数据集
- Large Language Models(大语言模型)
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
GLM [4]Permalink
- 探索多模态大模型 GLM-4.1V-Thinking
- GLM-4V-9B
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
ChatGPT [12]Permalink
- Open WebUI
- Kimi(月之暗面)简历的探索
- GPT4All
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- Building Systems with the ChatGPT API
- LangChain for LLM Application Development
- ChatGPT Prompt Engineering for Developers
- 讯飞星火测试
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
- Large Language Models(大语言模型)
- 文心一言测试
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
Google [1]Permalink
Pinecone [1]Permalink
ElevenLabs [1]Permalink
ERNIEBot [1]Permalink
LLaMA [2]Permalink
Alpaca [2]Permalink
Vicuna [2]Permalink
fine-tuning [1]Permalink
P-Tuning [1]Permalink
安规 [2]Permalink
OpenAI API [7]Permalink
- Docker AI 功能详解与应用
- Open WebUI
- OpenAI API Compatibility
- OpenAI API Documentation Speech to Text
- OpenAI API Documentation Chat Completion
- OpenAI API Documentation Embeddings
- OpenAI API Documentation 快速入门
pandas [1]Permalink
Embedding [2]Permalink
Faiss [2]Permalink
Chat Completion [1]Permalink
Token [1]Permalink
HuggingFace [10]Permalink
- LeRobot:通过端到端学习让机器人人工智能更易实现
- Open-source DeepResearch – Freeing our search agents
- 部署 LLM 多 LoRA 适配器的推理服务
- AutoTrain
- Open Source Models with Hugging Face
- Hugging Face NLP Course
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- Microsoft Phi-2
- LangChain HuggingFaceEmbeddings + FAISS
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
SerpApi [1]Permalink
LangChain [13]Permalink
- LangChain Blog: In the Loop
- 使用大型语言模型进行命名实体识别
- ChatTongyi
- Gradio Chatbot
- Anthropic Claude
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
- LangChain Chat Models Function & Tool Calling
- DashScope 模型服务灵积
- LangChain Text2SQL Agent
- LangChain
- FastChat 部署多模型
- LangChain - Chain
Whisper [3]Permalink
Debian [1]Permalink
arm64 [2]Permalink
Go [1]Permalink
知识扩展 [4]Permalink
wheel [1]Permalink
__MACOSX [1]Permalink
.DS_Store [1]Permalink
pt [1]Permalink
buildx [1]Permalink
CLIP [1]Permalink
Pydub [1]Permalink
DeepLearning.AI [4]Permalink
- How Diffusion Models Work
- Building Systems with the ChatGPT API
- LangChain for LLM Application Development
- ChatGPT Prompt Engineering for Developers
Fine-Tuning [8]Permalink
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- SWIFT: Scalable lightWeight Infrastructure for Fine-Tuning
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- State of GPT - Andrej Karpathy
- OpenAI Fine Tuning
SFT [1]Permalink
RM [1]Permalink
RLHF [1]Permalink
DDPM [1]Permalink
DDIM [1]Permalink
PersistentVolumeClaim [1]Permalink
PersistentVolume [1]Permalink
Provisioner [1]Permalink
mongo [1]Permalink
Elasticsearch [1]Permalink
Kibana [1]Permalink
Filebeat [1]Permalink
NTP [1]Permalink
Prometheus [1]Permalink
Grafana [1]Permalink
patch [1]Permalink
StatefulSet [1]Permalink
Backup [1]Permalink
Data [1]Permalink
SAM [1]Permalink
Chroma [1]Permalink
Gunicorn [1]Permalink
Uvicorn [1]Permalink
SQLite3 [1]Permalink
Qwen-7B [1]Permalink
ChatGLM2-6B [2]Permalink
Baichuan2 [1]Permalink
POST [1]Permalink
Form [1]Permalink
markdown [1]Permalink
CSS [1]Permalink
requirements.txt [1]Permalink
EasyOCR [1]Permalink
OCR [5]Permalink
- GLM-4V-9B
- Phi-3-vision-128k-instruct 微软开源多模态大模型
- MiniCPM-Llama3-V 2.5 端侧可用的 GPT-4V 级多模态大模型
- CogVLM2 智谱开源多模态大模型
- 开源 OCR 引擎基准测试
Benchmark [12]Permalink
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 大模型实战评测:语言 vs 推理 vs 代码
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- 海光 DCU 的大模型推理性能压测
- 沐曦 MXC500 训练 GPU 的大模型推理性能压测
- SWE-bench: Can Language Models Resolve Real-World GitHub Issues?
- OSWorld:在真实计算机环境中为开放式任务进行多模态代理基准测试
- CUA 评估额外信息
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- LLM 的基准测试
- Tabby 的基准测试
- 开源 OCR 引擎基准测试
faulthandler [1]Permalink
WALL-E-AI [1]Permalink
ARG [1]Permalink
API_KEY [1]Permalink
Authentication [1]Permalink
Embeddings [2]Permalink
RAG [3]Permalink
PrivateGPT [2]Permalink
FAISS [1]Permalink
FastChat [7]Permalink
- LLM 的基准测试
- 使用 FastChat 在 CUDA 上部署 LLM
- 在 MacBook Pro M2 Max 上安装 FastChat
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Langchain‐Chatchat 和 FastChat 结合
- Qwen (通义千问)
- FastChat 部署多模型
分布式 [1]Permalink
Inference [3]Permalink
Transformers [2]Permalink
Pipeline [1]Permalink
LLM.int8 [1]Permalink
traceroute [1]Permalink
tcpdump [2]Permalink
netstat [1]Permalink
lsof [2]Permalink
dmesg [1]Permalink
日志 [1]Permalink
NGINX [2]Permalink
WebSocket [1]Permalink
反向代理 [1]Permalink
语音识别 [2]Permalink
语音合成 [1]Permalink
StanfordCoreNLP [1]Permalink
Similarword [1]Permalink
PlaintextCorpusReader [1]Permalink
re [1]Permalink
BeautifulSoup [1]Permalink
etree [1]Permalink
requests [1]Permalink
GPT4All [1]Permalink
ChatGLM3 [1]Permalink
ChatGLM3-6B-32K [1]Permalink
bge-base-zh [1]Permalink
SeamlessM4T [1]Permalink
ASR [2]Permalink
- Open Source Models with Hugging Face
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
TTS [2]Permalink
- Open Source Models with Hugging Face
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
conda [1]Permalink
TensorRT-LLM [1]Permalink
TritonInferenceServer [1]Permalink
llama.cpp [2]Permalink
llama-cpp-python [2]Permalink
MacbookProM2MAX [2]Permalink
CLI [1]Permalink
Ollama [11]Permalink
- Cline: 自主编程助手
- 构建自主答题的智能体
- Open WebUI
- OpenAI API Compatibility
- GraphRAG
- Vanna.AI
- Continue
- Ollama
- CrewAI 快速入门
- Meta Llama 3
- 使用 Ollama 构建本地聊天服务
OllamaHub [1]Permalink
OllamaWebUI [1]Permalink
TGI [2]Permalink
SDXL-Turbo [1]Permalink
Diffusion [1]Permalink
Phi-2 [3]Permalink
MLX [11]Permalink
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
- MLX LLMS Examples
- MLX: An array framework for Apple silicon
QWen [3]Permalink
StableDiffusion [1]Permalink
T5 [1]Permalink
NEON [1]Permalink
MPS [4]Permalink
CoreML [1]Permalink
Langchain‐Chatchat [1]Permalink
CodeLLM [15]Permalink
- Qwen2.5-Coder Technical Report
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
- DeepSeek-Coder 论文解读
- Tabby 的基准测试
- 人工智能编码助手(AI Coding Assistant)功能
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- DeepSeek Coder: Let the Code Write Itself
- CodeFuse
- AI 大模型基础服务架构图
- AI 大模型
EmbeddingLLM [1]Permalink
Leaderboard [3]Permalink
CodeFuse [1]Permalink
AICodingAssistant [13]Permalink
- GitHub Copilot for VSCode v1.100
- 鲁软慧码提示工程实战手册
- Continue Agent 使用 GitHub MCP Server
- 使用 Trae 开发 RAGFlow 助手
- continue: config.yaml Reference
- 通义灵码2.0
- LLM 技术栈
- UnitMesh: AI 赋能软件研发全流程
- Tabby 的基准测试
- 人工智能编码助手(AI Coding Assistant)
- Sourcegraph Cody
- 人工智能编码助手(AI Coding Assistant)功能
- CodeFuse
CodeGPT [3]Permalink
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- CodeGPT: 智能辅助编程
IntelliJIDEA [3]Permalink
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- CodeGPT: 智能辅助编程
GGUF [2]Permalink
DeepSeek-LLM [1]Permalink
Llama [1]Permalink
DeepSeek-Coder [3]Permalink
python [1]Permalink
Tabby [7]Permalink
- Tabby 使用指南
- Tabby 的基准测试
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
Tabnine [1]Permalink
IDE [1]Permalink
VSCode [10]Permalink
- GitHub Copilot for VSCode v1.100
- 智能编码新范式 (Cline + DeepSeek) × MCP
- Visual Studio Code 2025年3月版本(1.99)的新功能
- Language Model API
- Chat Extensions (VS Code)
- GitHub Copilot in VS Code
- Tabby 使用指南
- Visual Studio Code 快捷键
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
NVIDIA-Driver [3]Permalink
dpkg [1]Permalink
libc6-dev [1]Permalink
build-essential [1]Permalink
PyCharm [1]Permalink
GeForce [1]Permalink
GTX1060 [1]Permalink
NVIDIAContainerToolkit [1]Permalink
Qwen [16]Permalink
- 探索多模态大模型 Qwen2.5-VL
- Qwen2.5-Omni:端到端多模态大模型
- 大模型实战评测:语言 vs 推理 vs 代码
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- Qwen2.5-VL Technical Report
- 部署 DeepSeek-R1 蒸馏模型
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- 使用大型语言模型进行命名实体识别
- LLaMA-Factory 微调 Text2SQL
- DashScope 模型服务灵积
- vLLM 部署 Qwen1.5 LLM
- MLX: An array framework for Apple silicon
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- LLM 的基准测试
- 在 MacBook Pro M2 Max 上安装 FastChat
DeepSeek [6]Permalink
- 智能编码新范式 (Cline + DeepSeek) × MCP
- DeepSeek-V3 & DeepSeek-R1
- 大模型实战评测:语言 vs 推理 vs 代码
- DeepSeek Janus Pro 7B
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 在 MacBook Pro M2 Max 上安装 FastChat
Sourcegraph [1]Permalink
Cody [1]Permalink
vLLM [14]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- Jetson AGX Orin大模型部署挑战与系统升级
- 探索多模态大模型 Qwen2.5-VL
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- 海光 DCU 的大模型推理性能压测
- 部署 DeepSeek-R1 蒸馏模型
- 沐曦 MXC500 训练 GPU 的大模型推理性能压测
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 部署 LLM 多 LoRA 适配器的推理服务
- SGLang 大模型服务框架
- vLLM 部署 Qwen1.5 LLM
- LLM 的基准测试
- 使用 FastChat 在 CUDA 上部署 LLM
测速 [1]Permalink
TeslaT4 [3]Permalink
proxy [1]Permalink
v2ray [1]Permalink
Quantization [2]Permalink
困惑度 [1]Permalink
PPL [1]Permalink
Perplexity [1]Permalink
Metal [1]Permalink
cuBLAS [1]Permalink
UnitMesh [1]Permalink
AutoDev [1]Permalink
ChocolateFactory [1]Permalink
StudioB3 [1]Permalink
UnitGen [1]Permalink
ArchGuard [1]Permalink
LoRA [12]Permalink
- 部署 LLM 多 LoRA 适配器的推理服务
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
Mistral-7B [6]Permalink
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
Text2SQL [19]Permalink
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- 使用大型语言模型进行命名实体识别
- LLaMA-Factory 微调 Text2SQL
- ChatTongyi
- Gradio DataFrame
- Gradio Chatbot
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
- LangChain Chat Models Function & Tool Calling
- LangChain Text2SQL Agent
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
WikiSQL [8]Permalink
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
push [1]Permalink
HuggingFaceHub [1]Permalink
MLXCommunity [1]Permalink
QLoRA [3]Permalink
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
Deepseek-Coder-7B [1]Permalink
TinyLlama [1]Permalink
OLMo [1]Permalink
AI2 [1]Permalink
NLP [2]Permalink
Microsoft [1]Permalink
Copilot [1]Permalink
Kimi [1]Permalink
Moonshot [1]Permalink
Rust [2]Permalink
GettingStarted [3]Permalink
DeepLearningAI [3]Permalink
GenerativeAI [1]Permalink
Candle [1]Permalink
Phi2 [1]Permalink
Mistral [1]Permalink
Gradio [3]Permalink
Llama2 [1]Permalink
CodeLlama [1]Permalink
LlamaGuard [2]Permalink
LLaMA-Factory [6]Permalink
- Easy Dataset:基于 LLM 微调数据集的工具
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
TogetherAI [1]Permalink
Continue [14]Permalink
- 开发 RAGFlow MCP Server
- Continue Agent 使用 GitHub MCP Server
- Continue 开发环境搭建时遇到了 esbuild 缺失问题
- continue: config.yaml Reference
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Continue
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
Agent [25]Permalink
- Gemini CLI - 开源命令行 AI 智能体
- SmolAgents 概念指南:Agent 介绍
- Anthropic: 构建有效的AI智能体
- SmolAgents 技术栈: LangFuse & LiteLLM
- OpenAI: 构建智能体的实用指南
- Agent2Agent 协议 (A2A) DEMO
- Agent2Agent 协议 (A2A)
- 构建AI代理:5个常见障碍及解决方案
- 模型上下文协议 (MCP) 全面解析:原理、应用与实现
- 使用 Cline 构建和管理 MCP 服务器:增强 AI 能力的全面指南
- Cline: 自主编程助手
- 构建自主答题的智能体
- Open-source DeepResearch – Freeing our search agents
- Introducing deep research
- Claude API: Computer use
- Claude: Developing a computer use model
- OSWorld:在真实计算机环境中为开放式任务进行多模态代理基准测试
- UI-TARS: Pioneering Automated GUI Interaction with Native Agents
- Operator System Card
- Chat Extensions (VS Code)
- LangChain Blog: In the Loop
- AutoGen
- CrewAI 快速入门
- 大型语言模型驱动的自主代理
- LangChain Text2SQL Agent
DashScope [3]Permalink
ToolCalling [1]Permalink
Pydantic [1]Permalink
Extraction [1]Permalink
ChatTongyi [5]Permalink
- 使用大型语言模型进行命名实体识别
- ChatTongyi
- Gradio Chatbot
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
Claude3 [1]Permalink
Anthropic [2]Permalink
Llama3 [3]Permalink
RUG [1]Permalink
Chatbot [1]Permalink
DataFrame [1]Permalink
Stream [1]Permalink
Xinference [1]Permalink
qwen-turbo [1]Permalink
NER [3]Permalink
Next.js [1]Permalink
React [1]Permalink
SWIFT [1]Permalink
Thoughtworks [1]Permalink
CogVLM2 [1]Permalink
MiniCPM-V [1]Permalink
Phi3 [1]Permalink
CrewAI [1]Permalink
SiliconCloud [1]Permalink
OllamaServer [1]Permalink
Dify [2]Permalink
LLMOps [2]Permalink
MultiAgent [1]Permalink
AutoGen [1]Permalink
GLM4 [1]Permalink
DB [1]Permalink
PostgreSQL [1]Permalink
pgAdmin [1]Permalink
ElmoChat [1]Permalink
LeptonAI [1]Permalink
RAGFlow [4]Permalink
VannaAI [1]Permalink
TextToSQL [1]Permalink
SQLite [3]Permalink
Qdrant [3]Permalink
ChromaDB [1]Permalink
FastEmbed [2]Permalink
Text2Image [1]Permalink
Kolors [1]Permalink
Shortcut [2]Permalink
TypeScript [1]Permalink
GraphRAG [1]Permalink
XInference [2]Permalink
transformers.js [1]Permalink
FTS [2]Permalink
BM25 [2]Permalink
LanceDB [2]Permalink
ContextProvider [1]Permalink
CodeSearch [1]Permalink
CodeChat [1]Permalink
Cursor [1]Permalink
Bloop [1]Permalink
VRAM [1]Permalink
Calculator [1]Permalink
SGlang [1]Permalink
FlashInfer [1]Permalink
Higress [2]Permalink
AIGateway [4]Permalink
- CodeGate - 让 AI 编码助手更安全
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
- Kong AI Gateway
- Higress AI Gateway
Envoy [1]Permalink
Istio [1]Permalink
Kong [1]Permalink
LiteLLM [6]Permalink
- SmolAgents 技术栈: LangFuse & LiteLLM
- 大模型推理服务压测报告:vLLM、SGLang、LiteLLM 与 Higress 性能对比
- 构建本地 AI 技术栈
- OpenAI API Compatibility
- Langfuse: Open Source LLM Engineering Platform
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
Langfuse [3]Permalink
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Langfuse: Open Source LLM Engineering Platform
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
Qwen2.5-Coder [1]Permalink
Qwen2 [1]Permalink
Letta [1]Permalink
MemGPT [1]Permalink
Synthetic [1]Permalink
Cosmopedia [1]Permalink
Phi [1]Permalink
distilabel [1]Permalink
argilla [1]Permalink
datatrove [1]Permalink
nanotron [1]Permalink
lighteval [1]Permalink
Reader-LM [1]Permalink
jina-embeddings-v3 [1]Permalink
JinaAI [1]Permalink
HTML [1]Permalink
SpeculativeDecoding [1]Permalink
AutoTrain [1]Permalink
MindIE [6]Permalink
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
- OpenAI API Compatibility
Atlas800 [4]Permalink
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
910B4 [8]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 华为 Atlas 800I A2 大模型部署实战(一):驱动/固件安装与MCU升级
- 华为 Atlas A2 算力切分
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
EvalScope [3]Permalink
Packaging [1]Permalink
evalscope-perf [3]Permalink
Agentic [1]Permalink
显示器 [2]Permalink
Atlas900 [1]Permalink
DELL [1]Permalink
工作总结 [1]Permalink
o1-preview [1]Permalink
AI应用 [3]Permalink
- 大模型风向标!OpenRouter平台谁最火?热门应用大揭秘!
- 腾讯会议中云录制的 AI+
- Personal Work Summary using GitHub Copilot with o1-preview
ChatExtensions [2]Permalink
ChatParticipant [1]Permalink
LanguageModelAPI [1]Permalink
OpenWebUI [1]Permalink
个人养老金 [1]Permalink
基金 [1]Permalink
投资 [1]Permalink
腾讯会议 [1]Permalink
云录制 [1]Permalink
CodeGate [1]Permalink
DeepSeek-R1 [4]Permalink
- DeepSeek-V3 & DeepSeek-R1
- 推理 LLM 技术内幕 - DeepSeek-R1/o1
- 部署 DeepSeek-R1 蒸馏模型
- DeepSeek R1: 通过强化学习激励 LLM 的推理能力
强化学习 [1]Permalink
DeepSeek-V3 [2]Permalink
MoE [1]Permalink
Operator [2]Permalink
CUA [3]Permalink
UI-TARS [1]Permalink
GUI [1]Permalink
OSWorld [1]Permalink
arXiv [5]Permalink
- Qwen2.5-VL Technical Report
- Introducing deep research
- SWE-bench: Can Language Models Resolve Real-World GitHub Issues?
- Claude: Developing a computer use model
- OSWorld:在真实计算机环境中为开放式任务进行多模态代理基准测试
Claude [2]Permalink
Anthropics [2]Permalink
API [1]Permalink
JanusPro7B [1]Permalink
多模态 [7]Permalink
- 探索多模态大模型 GLM-4.1V-Thinking
- Jetson AGX Orin大模型部署挑战与系统升级
- 探索多模态大模型 Qwen2.5-VL
- Qwen2.5-Omni:端到端多模态大模型
- Qwen2.5-VL Technical Report
- 构建自主答题的智能体
- DeepSeek Janus Pro 7B
SWE-bench [1]Permalink
DeepResearch [3]Permalink
- 模型上下文协议 (MCP) 全面解析:原理、应用与实现
- Open-source DeepResearch – Freeing our search agents
- Introducing deep research
o3 [3]Permalink
沐曦 [1]Permalink
MXC500 [1]Permalink
Jan [1]Permalink
Cline [14]Permalink
- Cline 概览 - Cline 扩展架构和开发指南
- Cline Documentation
- MCP 服务器开发协议
- MCP 快速入门指南
- 使用 Cline 从零开始构建自定义 MCP 服务器:综合指南
- Cline 工具参考指南
- Cline Mentions 功能指南
- Cline 的记忆库(Cline's Memory Bank)
- Cline 自定义指令库
- Cline 提示指南 🚀
- 智能编码新范式 (Cline + DeepSeek) × MCP
- 开发 RAGFlow MCP Server
- 使用 Cline 构建和管理 MCP 服务器:增强 AI 能力的全面指南
- Cline: 自主编程助手
Qwen2.5-VL [2]Permalink
海光 [1]Permalink
HYGON [1]Permalink
DCU [1]Permalink
AIStack [1]Permalink
LangFuse [2]Permalink
Chatbox [1]Permalink
SGLang [1]Permalink
T4 [1]Permalink
OpenAI-o1 [1]Permalink
推理模型 [2]Permalink
通义灵码 [1]Permalink
MCP [26]Permalink
- DXT(桌面扩展)开发指南
- Docker AI 功能详解与应用
- Desktop Extensions (DXT)
- DXT Manifest.json 规范
- FastMCP 实战:构建计算器 MCP 服务器与客户端
- MCPHub 自定义服务器配置及内网部署(二)
- MCPHub 自定义服务器配置及内网部署(一)
- MCPHub:MCP 服务器聚合平台(智能路由)
- MCPHub:MCP 服务器聚合平台
- MCP 服务器开发协议
- MCP 快速入门指南
- 使用 Cline 从零开始构建自定义 MCP 服务器:综合指南
- A2A ❤️ MCP
- MCP Inspector
- GitHub MCP 服务器
- 支持 MCP 集成的应用程序列表
- MCP 服务器示例和实现列表
- MCP 服务器功能
- MCP 基础协议
- MCP 架构
- Model Context Protocol 规范
- create-mcp-server
- MCP Python SDK
- Model Context Protocol (MCP) 的核心概念和能力
- 模型上下文协议 (MCP) 全面解析:原理、应用与实现
- 使用 Cline 构建和管理 MCP 服务器:增强 AI 能力的全面指南
Gemini [2]Permalink
config.yaml [1]Permalink
Resource [1]Permalink
Prompt [1]Permalink
Tool [1]Permalink
Transport [1]Permalink
Sampling [1]Permalink
Root [1]Permalink
ShareGPT [1]Permalink
esbuild [1]Permalink
uv [1]Permalink
Package [1]Permalink
MCPServer [15]Permalink
- DXT(桌面扩展)开发指南
- Docker AI 功能详解与应用
- Desktop Extensions (DXT)
- DXT Manifest.json 规范
- FastMCP 实战:构建计算器 MCP 服务器与客户端
- MCPHub 自定义服务器配置及内网部署(二)
- MCPHub 自定义服务器配置及内网部署(一)
- MCPHub:MCP 服务器聚合平台(智能路由)
- MCPHub:MCP 服务器聚合平台
- 使用 Cline 从零开始构建自定义 MCP 服务器:综合指南
- 开发 RAGFlow MCP Server
- Continue Agent 使用 GitHub MCP Server
- MCP Inspector
- GitHub MCP 服务器
- create-mcp-server
UV [1]Permalink
生成式AI [8]Permalink
- 腾讯混元多模态生成模型
- 【生成式AI时代下的机器学习(2025)】第十二讲:概述语音语言模型发展历程
- 【生成式AI时代下的机器学习(2025)】第十一讲:浅谈神奇的 Model Merging 技术
- 【生成式AI时代下的机器学习(2025)】第十讲:人工智慧的微创手术 — 浅谈 Model Editing
- 【生成式AI时代下的机器学习(2025)】第九讲:谈谈有关大型语言模型评估的几件事
- LLM 推理在软件任务中扮演什么角色?
- 探索生成式人工智能
- 生成式人工智能
人工智能 [5]Permalink
- 人工智能时代的软件 (Software in the era of AI) - Andrej Karpathy
- 北京智源人工智能研究院(BAAI)
- LLM 推理在软件任务中扮演什么角色?
- 探索生成式人工智能
- 生成式人工智能
推理 [2]Permalink
Server [1]Permalink
Client [1]Permalink
Trae [1]Permalink
MCPInspector [2]Permalink
pull [1]Permalink
Enterprise [1]Permalink
DeepSpeed [1]Permalink
ZeRO [1]Permalink
FlashAttention [1]Permalink
李宏毅 [5]Permalink
- 【生成式AI时代下的机器学习(2025)】第十二讲:概述语音语言模型发展历程
- 【生成式AI时代下的机器学习(2025)】第十一讲:浅谈神奇的 Model Merging 技术
- 【生成式AI时代下的机器学习(2025)】第十讲:人工智慧的微创手术 — 浅谈 Model Editing
- 【生成式AI时代下的机器学习(2025)】第九讲:谈谈有关大型语言模型评估的几件事
- 利用多张 GPU 训练大语言模型
2025 [1]Permalink
ReleaseNotes [1]Permalink
ragflow-sdk [1]Permalink
Git [1]Permalink
MCP MCPServer [1]Permalink
GitHubServer [1]Permalink
TicTacToe [1]Permalink
A2A [3]Permalink
o4-mini [1]Permalink
System Card [1]Permalink
CoT [2]Permalink
监控 [1]Permalink
奖励黑客 [1]Permalink
Sky-T1 [3]Permalink
- Sky-T1-7B:通过强化学习提升推理模型的潜力
- Sky-T1-32B-Flash:在不牺牲准确性的情况下将推理成本削减50%
- Sky-T1-32B-Preview: 在450美元内训练你自己的O1预览模型
Sky-T1-32B-Preview [1]Permalink
Post-Training [3]Permalink
- Sky-T1-7B:通过强化学习提升推理模型的潜力
- Sky-T1-32B-Flash:在不牺牲准确性的情况下将推理成本削减50%
- Sky-T1-32B-Preview: 在450美元内训练你自己的O1预览模型
Reasoning [3]Permalink
- Sky-T1-7B:通过强化学习提升推理模型的潜力
- Sky-T1-32B-Flash:在不牺牲准确性的情况下将推理成本削减50%
- Sky-T1-32B-Preview: 在450美元内训练你自己的O1预览模型
Sky-T1-32B-Flash [1]Permalink
Sky-T1-7B [1]Permalink
Guardrails [1]Permalink
Prompting [2]Permalink
ClineDoc [9]Permalink
- Cline Documentation
- MCP 服务器开发协议
- MCP 快速入门指南
- 使用 Cline 从零开始构建自定义 MCP 服务器:综合指南
- Cline 工具参考指南
- Cline Mentions 功能指南
- Cline 的记忆库(Cline's Memory Bank)
- Cline 自定义指令库
- Cline 提示指南 🚀
CustomInstructions [3]Permalink
MemoryBank [1]Permalink
Mentions [1]Permalink
Tools [1]Permalink
鲁软慧码 [1]Permalink
Text-to-SQL ThoughtWorks [1]Permalink
SQL [1]Permalink
SmolAgents [2]Permalink
ReAct [1]Permalink
ToT [1]Permalink
思维链 [1]Permalink
思维树 [1]Permalink
具身智能 [14]Permalink
- 英伟达全栈方案:LLM开发、推理与具身智能
- Gemini Robotics On-Device
- 盘古大模型关键技术解读
- 跨本体具身大小脑协作框架 RoboOS
- 具身大脑 RoboBrain
- 飞行机器人—从物理智能到具身智能
- 具身模型 NVIDIA Isaac GROOT N1 详解
- 具身端侧芯片 NVIDlA Jetson Thor 和 NVIDIA Isaac ROS 介绍
- 北京智源人工智能研究院(BAAI)
- 机器人智能操作系统研制与应用
- 华为云具身智能技术探索与实践
- 慧思开物:通往通用具身智能之路
- 具身智能关键技术研究:操作、规划、导航
- 具身智能大模型简介
VLA [6]Permalink
- Gemini Robotics On-Device
- 机器人智能操作系统研制与应用
- 华为云具身智能技术探索与实践
- 慧思开物:通往通用具身智能之路
- 具身智能关键技术研究:操作、规划、导航
- 具身智能大模型简介
机器人操作 [1]Permalink
数据集收集 [1]Permalink
RT [1]Permalink
RDT [1]Permalink
GR [1]Permalink
PI0 [1]Permalink
Manipulation [1]Permalink
Planning [1]Permalink
Navigation [1]Permalink
AGI [1]Permalink
MCPHub [5]Permalink
- DXT(桌面扩展)开发指南
- MCPHub 自定义服务器配置及内网部署(二)
- MCPHub 自定义服务器配置及内网部署(一)
- MCPHub:MCP 服务器聚合平台(智能路由)
- MCPHub:MCP 服务器聚合平台
GitLab [2]Permalink
SSE [2]Permalink
LeRobot [1]Permalink
机器人 [2]Permalink
Automator [3]Permalink
ImageMagick [2]Permalink
图像拼接 [1]Permalink
Agency [1]Permalink
SmartRoute [1]Permalink
模型评估 [1]Permalink
2025生成式AI时代下的机器学习 [4]Permalink
- 【生成式AI时代下的机器学习(2025)】第十二讲:概述语音语言模型发展历程
- 【生成式AI时代下的机器学习(2025)】第十一讲:浅谈神奇的 Model Merging 技术
- 【生成式AI时代下的机器学习(2025)】第十讲:人工智慧的微创手术 — 浅谈 Model Editing
- 【生成式AI时代下的机器学习(2025)】第九讲:谈谈有关大型语言模型评估的几件事
机器学习 [4]Permalink
- 【生成式AI时代下的机器学习(2025)】第十二讲:概述语音语言模型发展历程
- 【生成式AI时代下的机器学习(2025)】第十一讲:浅谈神奇的 Model Merging 技术
- 【生成式AI时代下的机器学习(2025)】第十讲:人工智慧的微创手术 — 浅谈 Model Editing
- 【生成式AI时代下的机器学习(2025)】第九讲:谈谈有关大型语言模型评估的几件事
模型编辑 [1]Permalink
模型合并 [1]Permalink
SpeechLLM [1]Permalink
PNG重命名并转JPG [1]Permalink
rename [1]Permalink
解压RAR [1]Permalink
rar [1]Permalink
华为云 [1]Permalink
工具链 [1]Permalink
ROS [1]Permalink
InsightOS [1]Permalink
具识智能 [1]Permalink
BAAI [1]Permalink
智源 [3]Permalink
智源大会 [1]Permalink
悟道 [1]Permalink
悟界 [1]Permalink
RoboOS [2]Permalink
RoboBrain [2]Permalink
FlagOpen [1]Permalink
多模态模型 [1]Permalink
混元 [1]Permalink
腾讯 [1]Permalink
图像生成 [1]Permalink
视频生成 [1]Permalink
Qwen2.5-Omni [1]Permalink
语音生成 [1]Permalink
工作流 [1]Permalink
SiliconFlow [1]Permalink
CherryStudio [1]Permalink
分支策略 [1]Permalink
代码管理 [1]Permalink
开发流程 [1]Permalink
mcp-server-time [2]Permalink
离线 [3]Permalink
内网部署 [3]Permalink
pypiserver [1]Permalink
JetsonThor [1]Permalink
IsaacROS [1]Permalink
GROOT-N1 [1]Permalink
Isaac [1]Permalink
飞行机器人 [1]Permalink
物理智能 [1]Permalink
具身大脑 [1]Permalink
多模态大模型 [1]Permalink
ShareRobot [1]Permalink
跨本体协作 [1]Permalink
Verdaccio [1]Permalink
npm [1]Permalink
ModelScope [1]Permalink
火灾 [2]Permalink
烟雾 [2]Permalink
安全帽 [2]Permalink
Software3.0 [1]Permalink
AndrejKarpathy [1]Permalink
智能体 [1]Permalink
软件开发 [3]Permalink
- Gemini CLI 项目分析与开发指南
- Gemini CLI - 开源命令行 AI 智能体
- 人工智能时代的软件 (Software in the era of AI) - Andrej Karpathy
盘古 [1]Permalink
华为 [1]Permalink
世界模型 [1]Permalink
FastMCP [1]Permalink
calculator-mcp-server [2]Permalink
MCPClient [1]Permalink
GeminiRobotics [1]Permalink
GeminiCLI [2]Permalink
DXT [3]Permalink
Manifest [1]Permalink
项目分析 [1]Permalink
MCPToolkit [1]Permalink
AskGordon [1]Permalink
ModelRunner [1]Permalink
AGXOrin [1]Permalink
人形机器人 [1]Permalink
泰安 [1]Permalink
物资仓库 [1]Permalink
GLM-4.1V-Thinking [1]Permalink
GLM-4V [1]Permalink
OpenRouter [1]Permalink
模型排名 [1]Permalink
AI趋势 [1]Permalink
NIM [1]Permalink
NeMo [1]Permalink
GROOT [1]Permalink
Atlas800IA2 [6]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 华为 Atlas 800I A2 大模型部署实战(一):驱动/固件安装与MCU升级
驱动 [1]Permalink
固件 [1]Permalink
MCU [1]Permalink
openEuler [6]Permalink
- 华为 Atlas 800I A2 大模型部署实战(六):vLLM 部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(五):vLLM 性能测试
- 华为 Atlas 800I A2 大模型部署实战(四):MindIE 多实例 LLM 部署
- 华为 Atlas 800I A2 大模型部署实战(三):MindIE 安装与部署 LLM
- 华为 Atlas 800I A2 大模型部署实战(二):逻辑卷创建与大模型下载
- 华为 Atlas 800I A2 大模型部署实战(一):驱动/固件安装与MCU升级