登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源
工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
推荐
MP3下载/音乐下载
首页
AI
文章列表
AI 相关文章
ComfyUI模型下载
ComfyUI自带模型库下载(需要特殊网络)ComfyUI自带有一个模型管理,如果你的网络通达,则该方案是最简单。启动ComfyUI点击右上角的“Manager
Comfyui
Comfyui 模型下载
Confyui GGUF
ComfyUI-GGUF 插件安装
ComfyUI-GGUF 插件介绍原生 ComfyUI 模型的 GGUF 量化支持这目前非常 WIP。这些自定义节点为以 llama.cpp 流行的 GGUF
Comfyui GGUF插件安装
GGUF模型
Comfyui GGuf
ComfyUI 安装
ComfyUI安装安装位置我这还是继续自定义了迁移老版本(可选)没啥特殊需求,建议全新安装,直接下一步关闭自动更新和指标采集镜像设置推荐设置镜像,否则安装py相
ComfyUI安装
ComfyUI
Comfy
Dify OpenAI-API-compatible 使用LM Studio
概述/目的由于Dify 中再带的LM Studio插件,在工作流中报错,无法运行,暂时没有得到解决,故此使用openai 兼容工具提供商OpenAI-API-c
Didfy LM Studio配置
OpenAI-API-compatible配置
OpenAI-API-compatible配置LM Studio
Dify LLM大模型回复作为输出变量
目标/需求Dify LLM大模型回复作为输出变量示例,将大模型回复用于Stable Diffusion提示词。提示词配置(输入)上一步提供大模型的输入用户提问内
Dify LLM
Dify LLM变量输出
LLM
Dify 配置Stable Diffusion (SD)
Dify Stable Diffusion(SD)插件安装登录Dify,然后找到顶部中间的“工具”点开后在搜索里面输入Dify Stable Diffusion
Dify Stable Diffusion
Stable Diffusion 配置
Dify 配置SD
Dify 配置大模型
Dify配置大模型,接上一篇安装Dify登录Dify 在右上方点击用户头像弹窗选设置安装模型供应商插件注意:这里的安装成功只是排队成功。下载安装需要时间
Dify配置大模型
dify ollama配置
dify lm studio配置
Windows 11 本地部署Dify详解
本文详细介绍了在Windows系统上本地化部署Dify的完整步骤,涵盖了Docker Desktop的安装与配置、Dify源代码的获取、环境变量的设置、服务的启
windows安装Dify
Windows部署Dify
Dify安装
Ollama 常用环境变量
Ollama 是一个用于运行和管理大型语言模型的工具,它支持通过环境变量来配置其行为。以下是一些常用的 Ollama 环境变量:1. OLLAMA_HOST作用
ollama环境配置
ollama配置
ollama
Ollama 运行输出token速度等统计信息
效果参考这里的eval rate 就是平均的token速度执行命令参考ollama run deepseek-r1:8b --verbose重点:--verbo
ollama token统计
ollama token速度
ollama
Stable Diffusion(SD)安装并运行780M显卡加速
安装HIP SDK打开AMD HIP官网,下载6.1.2版本 Windows10/Windows11版本AMD HIP SDK for Windows下载完成后
Stable Diffusion
SD
Stable Diffusion模型
Spring AI 基于Redis和Ollama实现RAG本地知识库
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
Ollama
Deepseek
Spring AI
Spring Boot AI使用Redis Vector Database作为向量数据库
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
Redis Stack
Redis Vector
Spring AI
Anything LLM 接入LM Studio
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
Anything LLM
LM Studio
deepseek
LM Studio开启本地服务或headless(服务模式)
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
LM Studio
deepseek
LM Studio本地服务
LM Studio服务化
下一页
热门文章
飞牛私有云/FNOS安装(虚拟机VMware环境)
[飞牛私有云/FNOS]
飞牛私有云/FNOS
[飞牛私有云/FNOS]
Docker 一键清理无用容器和未使用镜像
[Docker Case]
Java Spring Boot/MVC 获取用户真实客户端IP
[Spring]
Google Gmail Java smtp发送邮件
[Java]
最近更新
Java M3U8 视频下载合并
[资源]
博客/企业官网全站 CDN 配置 - 腾讯云CDN
[Java]
Jenkins 启动/重启命令shell脚本
[Jenkins]
Nuxt.js Vue 服务端渲染SSR入门
[WEB]
docker compose 与 docker-compse 区别介绍
[Docker Case]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意