Stable-Diffusion-webui和ml-SD的本地部署

Stable-Diffusion-webui和ml-SD的本地部署
Shawn JR由于网站遭受到了管理人的错误处理,珍贵资源未能得以保留,鲁迅说过,网站不能空无一文(?,故水文一篇,赖以充数(逃
部署前准备
- 科学上网
- 能不用Mac就不用Mac
- 做好看鬼图的心理准备(确信
ml-SD
本来事先是想着直接上SD的,但找参考时看到了ml-SD的部署指南,本着走前人走过的路的精神,就先试试ml-SD吧
客观来说,ml-SD在Mac上是要比SD有足够的优势的,毕竟是Apple改过的能动用M系列GPU的,比后面部署的SD-webui单纯用CPU搁那里算可快太多了,苦于不会写ui(fvv没有去看,摆烂人实锤),在实际使用方面还是webui更舒适一些。
Conda安装
到Conda官网或镜像站下载,下载完后执行安装,建议用vi ~/.condarc
对其进行换源,保护后面下载时不至于血压升高(
在完成 Conda 的安装之后,我们就可以用它来快速的创建不影响本地机器环境,只和项目关联的干净的 Python 运行环境了。
环境准备
1 | conda create -n coreml_stable_diffusion python=3.8 -y |
项目初始化
1 | git clone https://github.com/apple/ml-stable-diffusion.git |
模型转换
现在我们有跑的环境了,缺少点来跑的model,上Huggingface注册一个账号,获取token后利用token登录,这样我们就可以从Huggingface上下载model了。和SD不一样,ml-SD好像只能运行转换格式后的model,我们需要转换 Huggingface 上的 PyTorch / TF 开放模型到 Apple Core ML 模型格式
1 | python -m python_coreml_stable_diffusion.torch2coreml --convert-unet --convert-text-encoder --convert-vae-decoder --convert-safety-checker -o ./models |
生成图片及参数录入优化
1 | python -m python_coreml_stable_diffusion.pipeline --prompt "magic book on the table" -i ./models -o ./output --compute-unit ALL --seed 93 |
我们可以用gradio来创建一个 Web 界面,把 ML Stable Diffusion 的图片生成和 Web 界面“绑定”到一起(但不想看了,就没有后续力
感觉,快了,也没快多少(bushi
真不戳(赞赏
Stable-Diffusion-webui
在玩了几次ml-SD后,愈发感觉指南里的web过于直白,给不了多少自由度,自己又不想自己写,于是便决定用现成的webui,正好官方文档里也有对Apple单独的部署指导,实际部署起来感觉比ml-SD更顺畅(?
过程
1 | brew install cmake protobuf rust python@3.10 git wget |
事先装好Homebrew
评论
匿名评论隐私政策