位置: IT常识 - 正文
推荐整理分享AI生成图像竟如此真实了?Stable Diffusion Model本地部署教程(ai生成图形),希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:ai如何生成png,ai如何生成png,ai怎么出成图片,ai如何生成png,ai如何生成png,ai怎么出成图片,ai自动生成图像,ai图像生成工具怎么用,内容如对您有帮助,希望把文章链接给更多的朋友!
✅作者简介:人工智能专业本科在读,喜欢计算机与编程,写博客记录自己的学习历程。 🍎个人主页:小嗷犬的个人主页 🍊个人网站:小嗷犬的技术小站 🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。
本文目录图像生成stable-diffusion-webuiStable Diffusion Model本地部署安装 git项目下载项目部署模型导入中文支持其他内容的安装一些生成图片的展示不同采样方法之间的比较图像生成Stable Diffusion Model 是一个基于扩散模型的图像生成模型。早在模型刚刚兴起的时候,博主就有所关注,尝试过本地部署,但是由于设备硬件配置限制,最终也没有能够真正的在本地跑起来。
考虑到人工智能各个领域的模型都是往着大模型方向发展,所以博主觉得如果当时跑不起来,在不更新硬件的情况下,以后也没有机会再跑了。
当时各个在线 AI 图片生成平台生成的效果往往都不尽人意,并且不支持自己训练模型,博主就很长一段时间没有再关注这个领域了。
前几天偶然发现 AI 生成图片的效果有明显的提升,甚至可以说是有些惊艳了。于是博主在网上恶补了这段时间的相关知识,发现进步似乎比我想象的还要大。
stable-diffusion-webuistable-diffusion-webui 是 AUTOMATIC1111 大佬在 Github 上开源的一个专用于图片生成模型的 WebUI,可以在本地部署,支持导入模型和自己训练。
重要的是,该项目的部署方式非常简单,不需要任何的编程基础,环境也会帮你自动配置好;GUI 的操作也非常简单,所见即所得。
你所做的只是要安装 git,下载项目,然后点击运行脚本,就可以了,部署和使用门槛大大降低。
Stable Diffusion Model除了 stable-diffusion-webui 外,我们还需要一个图片生成模型才能生成图片。
模型可以自己训练,但我推荐第一次还是直接下载别人训练好的模型,这样可以直接体验。各种的 Stable Diffusion 模型可以在 Civitai 上找到。
现在的各种模型对硬件要求各不相同,有的模型不仅效果好于从前,而且硬件要求也比原来更低了。
博主使用的显卡为 NVIDIA GeForce RTX 3050 Ti Laptop GPU,只有 4G 显存。以前的模型连生成 128x128 的图片都会爆显存,现在的模型却可以生成 512x768 的图片。
硬件门槛也没有以前那么高了。
本地部署本教程的设备要求:
显卡为 NVIDIA 显卡,显存大于 4G硬盘空间足够Windows 系统安装 git首先,我们需要安装 git,如果你已经安装了 git,可以跳过这一步。
git 是一个开源的分布式版本控制系统,用于敏捷高效地处理任何或小或大的项目。
git 的安装非常简单,只需要在 git 官网 下载安装包,然后正常安装就可以了。
stable-diffusion-webui 需要使用它来自动配置环境。
项目下载点击以下链接下载项目 release: stable-diffusion-webui
项目部署下载完成后,解压到任意目录,然后双击运行 update.bat,更新项目为最新版本。
当出现以下信息时,说明项目已经是最新的:
然后双击运行 run.bat,运行项目。首次运行会安装环境,所以需要等待一段时间。环境安装时出现错误通常属于 GitHub 的连接问题,可以自行设置代理。
安装的环境是 Pytorch 和 CUDA 以及一些 Python 第三方库和 Github 上的项目,安装过程中会自动下载。stable-diffusion-webui 自带 Python,所以不需要自己安装 Python 环境。
当出现以下信息时,说明 WebUI 已经运行在本地了:
在浏览器中访问 local URL,即可打开 WebUI。
模型导入将 .safetensors 或 .ckpt 后缀的模型文件放入以下目录下,然后重启 WebUI 即可。
sd.webui/webui/models/Stable-diffusion/多个模型之间还可以通过 WebUI 切换。
中文支持在 WebUI 的 Extentions 中,选择 install from URL,输入以下 URL,点击 install:
https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN安装完成之后,在 Settings 的 User interface 中,选择 Localization (requires restart),选择 zh-CN。
回到 Settings 最上面点击 Apply settings,然后点击 Reload UI。
UI汉化效果:
其他内容的安装Lora 文件可以放在sd.webui/webui/models/Lora/下,通过 Prompt 输入 Lora 指令使用VAE 文件可以放在sd.webui/webui/models/VAE/下,在设置的 Stable Diffusion 版面设置模型的 VAEextensions 文件可以放在sd.webui/webui/extensions/下,通过 WebUI 的 Extentions 版面启用textual inversion 文件可以放在sd.webui/webui/embeddings/下,通过 Prompt 输入关键词使用相关资源都可以在 Civitai 上找到,可以自行下载、安装、体验。
一些生成图片的展示以下图片来自相同模型,使用同一 Prompt 进行随机生成:
图片被判定违规,图片效果请见:小嗷犬的技术小站 - AI生成图像竟如此真实了?Stable Diffusion Model本地部署教程
不同采样方法之间的比较同一模型可以选择不同的采样方式进行采样,生成的图片也会有所不同。
以下图片都来自相同模型、相同 Prompt、相同 Seed 的生成结果,只是采样方法不同,其他参数完全一致。
图片被判定违规,对比图片效果请见:小嗷犬的技术小站 - AI生成图像竟如此真实了?Stable Diffusion Model本地部署教程
下一篇:前端解决跨域问题(9个方法)(前端解决跨域问题的代理)
友情链接: 武汉网站建设