Stable Diffusion - API和微服务开发

2023-05-16

Stable Diffusion 是一种尖端的开源工具,用于从文本生成图像。 Stable Diffusion Web UI 通过 API 和交互式 UI 打开了许多这些功能。 我们将首先介绍如何使用此 API,然后设置一个示例,将其用作隐私保护微服务以从图像中删除人物。
在这里插入图片描述

推荐:用 NSDT场景设计器 快速搭建3D场景。

1、生成式AI简介

基于机器学习的数据生成器在去年发生了如此多的创新,你可以将 2022 年称为“生成 AI 年”。

我们有 DALL-E 2,这是来自 OpenAI 的文本到图像生成模型,它生成了宇航员骑马和狗穿着人衣服的惊人逼真的图像。 GitHub Copilot 是一款功能强大的代码完成工具,可以自动完成语句、编写文档并通过一条评论为您实现全部功能,已作为订阅服务向公众发布。

我们拥有 Dream Fields、Dream Fusion 和 Magic3D,这是一系列能够仅从文本生成带纹理的 3D 模型的开创性模型。 最后但同样重要的是,我们有 ChatGPT,这是当今不需要介绍的尖端人工智能聊天机器人。

这份清单几乎没有触及表面。 在像 DALL-E 2 这样的生成图像模型的世界中,我们还有 Midjourney、Google Imagen、StarryAI、WOMBO Dream、NightCafe、InvokeAI、Lexica Aperture、Dream Studio、Deforum……我想你明白了。 😉 📷 可以毫不夸张地说,生成式AI已经俘获了全世界的想象力。

2、Stable Diffusion

虽然许多流行的生成式 AI 工具(如 ChatGPT、GitHub Copilot 和 DALL-E 2)都是专有的和付费的,但开源社区并没有错过任何机会。 去年,LMU Munich、Runway 和 Stability AI 合作公开分享了 Stable Diffusion,这是一种强大而高效的文本到图像模型,足以在消费类硬件上运行。 这意味着任何拥有良好 GPU 和互联网连接的人都可以下载 Stable Diffusion 代码和模型权重,从而为世界带来低成本的图像生成。

3、Stable Diffusion Web UI

Stable Diffusion Web UI 是最流行的利用 Stable Diffusion 的工具之一,它在基于浏览器的交互式用户界面中公开了 Stable Diffusion 的各种设置和功能。 该项目的一个鲜为人知的功能是你可以将其用作 HTTP API,从而允许你从自己的应用程序请求图像。
在这里插入图片描述

它具有大量功能,例如图像修复、图像扩展、调整大小、放大、变化等等。 项目 wiki 提供了所有功能的一个很好的概述。 此外,它还提供可扩展性脚本。

4、Stable Diffusion Web UI设置

在开始之前,请确保你的系统上有至少 8GB VRAM 的 GPU(最好是 NVIDIA,但也支持 AMD)。 这将确保你可以将模型加载到内存中。 接下来,需要将存储库克隆到你的系统(例如通过 HTTPS):

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

请按照系统的安装说明进行操作,因为它们可能与我的不同。 我安装了 Ubuntu 18.04 来设置它,但它也应该适用于 Windows 和 Apple Silicon。 这些说明将包括设置 Python 环境,因此请确保你设置的环境在稍后启动服务器时处于活动状态。

完成后,我们需要模型权重的副本。 我使用的是 Stable Diffusion 2.0,但现在也可以使用 Stable Diffusion 2.1。 无论选择哪个选项,请务必下载 stablediffusion 存储库的权重。 最后,将这些权重复制到 models/Stable-diffusion 文件夹,如下所示:

cp 768-v-ema.ckpt models/Stable-diffusion

现在应该准备好开始生成图像了! 要启动服务器,请从根目录执行以下命令(确保你设置的环境已激活):

python launch.py

服务器将需要一些时间来设置,因为它可能需要安装依赖、将模型权重加载到内存中以及检查嵌入等。 准备就绪后,应该会在终端中看到一条消息,如下所示:

Running on local URL:  http://127.0.0.1:7860

用户界面是基于浏览器的,因此请在你喜欢的网络浏览器中导航到“127.0.0.1:7860”。如果它正常工作,它应该看起来像这样:
在这里插入图片描述

5、Stable Diffusion Web UI用法

现在应该准备好生成一些图像了! 继续并通过在“提示”字段中输入文本并单击“生成”来生成一些内容。 如果这是你第一次使用此 UI,请花点时间探索和了解它的一些功能和设置。 如果有任何问题,请参阅 wiki。 这些知识稍后在设计 API 时会派上用场。

我不会深入研究如何使用 Web UI,因为在我之前的许多人都这样做过。 但是,我将提供以下基本设置备忘单以供参考。

  • 采样方法:采样算法。 这会极大地影响生成图像的内容和整体外观。 方法之间的执行时间和结果可能有很大差异。 最好先试验这个选项。
  • 采样步数:图像生成过程中的去噪步数。 一些结果会随着步数的增加而发生巨大变化,而另一些结果会很快导致收益递减。 20-50 的值对于大多数采样器来说是理想的。
  • 宽度、高度:输出图像尺寸。 对于 SD 2.0,768x768 是首选分辨率。 分辨率会影响生成的内容。
  • CFG 量表:无分类器指导 (CFG) 量表。 增加它会增加提示对图像的影响程度。 较低的值会产生更具创意的结果。
  • 去噪强度:确定允许原始图像的变化量。 值为 0.0 时不会发生任何变化。 值为 1.0 时会完全忽略原始图像。 从 0.4–0.6 之间的值开始通常是一个安全的选择。
  • 种子:随机种子值。 当你想比较变化尽可能小的设置的效果时很有用。 如果喜欢特定的一代但想对其进行一些修改,请复制种子。

6、使用 Stable Diffusion 作为 API

Web UI 专为单个用户设计,非常适合作为交互式艺术工具来制作你自己的作品。 但是,如果我们想使用它作为引擎构建应用程序,那么我们将需要一个 API。 stable-diffusion-webui 项目的一个鲜为人知(且记录较少)的特性是它还有一个内置 API。 Web UI 是使用 Gradio 构建的,但还有一个 FastAPI 应用程序可以通过以下方式启动:

python launch.py --nowebui

这为我们提供了一个 API,可以公开我们在 Web UI 中拥有的许多功能。 我们可以发送带有我们的提示和参数的 POST 请求,并接收包含输出图像的响应。

7、创建Stable Diffusion微服务

例如,我们现在将设置一个简单的微服务,用于从照片中删除人物。 这有很多应用,例如保护个人隐私。 我们可以使用Stable Diffusion作为基本的隐私保护过滤器,它可以从照片中去除人物,而不会出现任何难看的马赛克或像素块。

请注意,这是一个基本设置; 它不包括加密、负载平衡、多租户、RBAC 或任何其他功能。 此设置可能不适用于生产环境,但它可用于在家庭或私人服务器上设置应用程序。

8、以API方式启动Stable Diffusion

以下说明将在 API 模式下使用服务器,因此请继续并使用 CTRL+C 暂时停止 Web UI。 使用 --nowebui 选项以 API 模式再次启动它:

python launch.py --nowebui

服务器准备好后应该打印如下内容:

INFO:     Uvicorn running on http://127.0.0.1:7861 (Press CTRL+C to quit)

9、向 Stable Diffusion API 发送请求

我们要做的第一件事是演示如何向 API 发出请求。 我们希望向应用程序的 txt2img(即“文本到图像”)API 发送 POST 请求以简单地生成图像。

我们将使用 requests 包,所以如果你还没有安装它:

pip install requests

我们可以发送一个包含提示的请求作为一个简单的字符串。 服务器将返回一个图像作为 base64 编码的 PNG 文件,我们需要对其进行解码。 要解码 base64 图像,我们只需使用 base64.b64decode(b64_image)。 以下脚本应该是测试它所需的全部内容:

import json
import base64

import requests


def submit_post(url: str, data: dict):
    """
    Submit a POST request to the given URL with the given data.
    """
    return requests.post(url, data=json.dumps(data))


def save_encoded_image(b64_image: str, output_path: str):
    """
    Save the given image to the given output path.
    """
    with open(output_path, "wb") as image_file:
        image_file.write(base64.b64decode(b64_image))


if __name__ == '__main__':
    txt2img_url = 'http://127.0.0.1:7861/sdapi/v1/txt2img'
    data = {'prompt': 'a dog wearing a hat'}
    response = submit_post(txt2img_url, data)
    save_encoded_image(response.json()['images'][0], 'dog.png')

将内容复制到文件并将其命名为 sample-request.py。 现在执行这个:

python sample-request.py

如果有效,它应该将图像的副本保存到文件 dog.png 中。 我的看起来像这个衣冠楚楚的家伙:
在这里插入图片描述

请记住,你的结果会与我的不同。 如果遇到问题,请仔细检查运行Stable Diffusion应用程序的终端的输出。 可能是服务器尚未完成设置。 如果您遇到“404 Not Found”之类的问题,请仔细检查 URL 是否输入正确并指向正确的地址(例如 127.0.0.1)。

10、设置图像掩码

如果到目前为止一切正常,那就太好了! 但是我们如何使用它来修改我们已有的图像呢? 为此,我们需要使用 img2img(即“图像到图像”)API。 此 API 使用稳定扩散来修改你提交的图像。 我们将使用修复功能:给定图像和遮罩,修复技术将尝试用稳定扩散生成的内容替换图像的遮罩部分。 遮罩充当权重,在原始图像和生成图像之间平滑插值,以将两者混合在一起。

我们将尝试使用我们可用的许多预训练计算机视觉模型之一来生成一个面具,而不是手工制作面具。 我们将使用模型输出的“人”类来生成掩码。 虽然对象检测模型可以工作,但我选择使用分割模型,以便您可以尝试使用密集掩码或边界框。

我们将需要一个示例图像来进行测试。 我们可以从 Internet 下载一个,但本着保护隐私(和版权)的精神,为什么不制作一个稳定传播的呢? 下面是我用提示“美丽的山景,一个女人从镜头前走开”生成的。

在这里插入图片描述

你可以下载这个,但我鼓励你尝试自己生成一个。 当然,你也可以使用真实照片。 以下是将来自 torchvision 的分割模型作为蒙版应用于此图像的最小代码。

import torch
from torchvision.models.segmentation import fcn_resnet50, FCN_ResNet50_Weights
from torchvision.io.image import read_image
from torchvision.utils import draw_segmentation_masks
import matplotlib.pyplot as plt


if __name__ == '__main__':
    img_path = 'woman-on-trail.png'

    # Load model
    weights = FCN_ResNet50_Weights.DEFAULT
    model = fcn_resnet50(weights=weights, progress=False)
    model = model.eval()

    # Load image
    img = read_image(img_path)

    # Run model
    input_tform = weights.transforms(resize_size=None)
    batch = torch.stack([input_tform(img)])
    output = model(batch)['out']

    # Apply softmax to outputs
    sem_class_to_idx = {cls: idx for (idx, cls) in enumerate(weights.meta['categories'])}
    normalized_mask = torch.nn.functional.softmax(output, dim=1)

    # Show results
    class_idx = 1
    binary_masks = (normalized_mask.argmax(class_idx) == sem_class_to_idx['person'])
    img_masked = draw_segmentation_masks(img, masks=binary_masks, alpha=0.7)
    plt.imshow(img_masked.permute(1, 2, 0).numpy())
    plt.show()

像以前一样,将其复制到名为 segment-person.py 的文件中。 使用以下代码执行代码:

python segment-person.py

生成的预测应如下所示:
在这里插入图片描述

我们现在拥有向 API 发出请求并预测边界框的机制。 现在我们可以开始构建我们的微服务了。

11、人物清除微服务

现在让我们转向我们的实际示例:从图像中删除人物。 微服务应执行以下操作:

  • 读取多个输入参数
  • 从文件加载图像
  • 将类别为“person”的分割模型应用于图像以创建掩码
  • 将图像和掩码转换为base64编码
  • 向本地服务器的 img2img API 发送包含 base64 编码图像、base64 编码掩码、提示和任何参数的请求
  • 解码并将输出图像保存为文件

由于我们已经分别介绍了所有这些步骤,因此已在此 GitHub Gist 中为您实施微服务。 现在下载脚本并使用以下命令在图像“woman-on-trail.png”(或您喜欢的任何图像)上执行它:

python inpaint-person.py woman-on-trail.png -W 1152 -H 768

-W 和 -H 分别表示所需的输出宽度和高度。 它将生成的图像保存为 inpaint-person.png,并将相应的蒙版保存为 mask_inpaint-person.png。 你的会有所不同,但这是我收到的输出:

嗯,不是我们想要的。 似乎人的大部分都还在,尤其是剪影。 我们可能需要遮盖更大的区域。 为此,让我们尝试将掩码转换为边界框。 我们可以使用 -B 标志来做到这一点。
`

python inpaint-person.py woman-on-trail.png -W 1152 -H 768 -B

我收到的输出是这样的:
在这里插入图片描述

这也不对! 混凝土柱不是我们期望在小径中间找到的东西。 也许引入提示将有助于将事情引向正确的方向。 我们使用 -p 标志在请求中添加提示“mountain scenery, landscape, trail”。 我们还使用 -D 32 扩大边界框以消除一些边缘效果,并使用 -b 16 模糊边界框以将掩码与背景混合一点。

python inpaint-person.py woman-on-trail.png \
    -W 1152 -H 768 \
    -b 16 -B -D 32 \
    -p "mountain scenery, landscape, trail"

有了这个,我收到了以下输出:
在这里插入图片描述

现在看起来似乎不错! 继续尝试不同的图像、设置和提示,使其适合你的用例。 要查看此脚本可用的参数和提示的完整列表,请输入 python inpaint-person.py -h。

12、结束语

你的图像很可能与上面的图像看起来非常不同。 因为它是一个固有的随机过程,即使使用具有相同设置的稳定扩散也会产生截然不同的输出。 要了解所有功能和适当的提示设计,学习曲线相当陡峭,即使这样,结果也可能很挑剔。 使图像看起来完全符合您的喜好是非常困难的,需要反复试验。

为了帮助你完成任务,请记住以下提示:

  • 在切换到 API 之前,使用 Web UI 找到适合你的用例的正确参数。
  • 根据你的喜好微调图像时,依靠提示矩阵和 X/Y 绘图功能。 这些将帮助你快速探索参数搜索空间。
  • 注意种子。 如果你喜欢特定的输出但想要对其进行迭代,请复制种子。
  • 尝试使用不同的生成器,例如 Midjourney! 每个工具都略有不同。
  • 使用 Lexica 等 Internet 资源作为灵感并找到好的提示。
  • 使用设置菜单中的“使用生成参数在每个图像旁边创建一个文本文件”选项来跟踪你用于制作每个图像的提示和设置。

最重要的是,玩得开心!


原文链接:Stable Diffusion API — BimAnt

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Stable Diffusion - API和微服务开发 的相关文章

随机推荐

  • 使用iptables命令配置防火墙重启失效的解决办法

    该命令列出当前的防火墙配置 iptables save保存配置 centos系统 保存配置到文件 service iptables save 开机自动启用 chkconfig iptables on 若不是centos系统 保存 iptab
  • MFC 中设置定时器Timer的方法

    在用settimer之前要知道 1 同1个 settimer xff08 xff09 在一个循环里设置一次就行了 xff0c 要是让其不断的set xff0c 是很可能执行不到ontimer xff08 xff09 消息处理函数的 xff0
  • 控制中的各种函数MATLAB仿真

    控制系统的MATLAB仿真 1 MATLAB简介 MATLAB是Mathworks公司开发的一种集数值计算 符号计算和图形可视化三大基本功能于一体的功能强大 操作简单的优秀工程计算应用软件 MATLAB不仅可以处理代数问题和数值分析问题 x
  • 使用VNC实现Windows7远程CentOS的桌面

    使用VNC实现Windows7远程CentOS的桌面 一 CentOS服务端配置 1 下载Putty远程登录软件 下载windows版本 输入CentOS计算机的ip xff0c 登录CentOS计算机的终端 xff08 下载Putty地址
  • iperf3使用方法(Windows与MacOS,iOS)

    Windows下载 https iperf fr iperf download php windows MacOS下载 brew install iperf3 iOS App Store搜索 iperf 61 61 61 61 61 在软路
  • 树莓派raspberry pi 安装远程工具teamviewer

    raspberry pi 安装远程工具teamviewer 1 下载Teamviewer wget http download teamviewer com download linux version 11x teamviewer hos
  • windows配置端口映射到其它电脑(转载)

    windows配置端口映射到其它电脑 转载 A 配置方法 假定需要通过192 168 1 8的14941端口连接192 168 1 118的1494端口 xff0c 则需要在192 168 1 8主机的命令行输入如下语句 netsh int
  • RFID ACCESS CONTROL门禁密码修改

    1 必须先进入编程方式 xff1a 按 xff3b xff3d xff0b xff3b 6位编程密码 如012345 xff0c 忘记编程密码参考第6步重置 xff0c 嘟嘟两声响 xff0c xff08 红灯闪烁 xff0c 绿灯长亮 出
  • 【论文笔记】SphereFace: Deep Hypersphere Embedding for Face Recognition

    参考文献 xff1a Liu W Wen Y Yu Z et al SphereFace Deep Hypersphere Embedding for Face Recognition J arXiv preprint arXiv 1704
  • vue3项目使用node连接数据库(前后端分离)

    学习关键语句 xff1a vue连接mysql数据库 vue项目连接后台数据库配置 vue通过node连接MySQL数据库 写在前面 为了快速学习nodejs制作后端并和数据库进行交互的方法 所以赶紧写一篇这样的文章出来 如果你对这篇文章中
  • 机器学习实战-64:线性判别分析降维算法(Linear Discriminant Analysis)

    机器学习实战 64 线性判别分析降维算法 深度学习原理与实践 开源图书 总目录 xff0c 建议收藏 xff0c 告别碎片阅读 xff01 机器学习分为监督学习 无监督学习和半监督学习 强化学习 无监督学习最常应用的场景是聚类 cluste
  • 计算机硬件基础与实践探知

    计算机硬件的五大单元 在介绍计算机硬件基础之前 xff0c 我们必须了解一下计算机硬件的五大单元 xff0c 注意这里说的是硬件的五大单元并不是计算机五大单元 输入设备 无论是计算机五大单元还是计算机硬件的五大单元 xff0c 这其中必须包
  • 去除Google Chrome新标签页中的8个缩略图

    在Google Chrome中 xff0c 新建空白页时 xff0c 会显示如下缩略图 xff0c 并且会看到最近的一些访问记录 xff1a 对于本人自己感觉不是很美观 xff0c 我喜欢更简洁的界面 xff0c 而且也看不全我喜爱的背景图
  • 面对百亿数据,Hbase为什么查询速度依然非常快?

    HBase适合存储PB级别的海量数据 xff08 百亿千亿量级条记录 xff09 xff0c 如果根据记录主键Rowkey来查询 xff0c 能在几十到百毫秒内返回数据 那么Hbase是如何做到的呢 xff1f 接下来 xff0c 介绍一下
  • Laravel视图blade模板使用集合

    var 打印内容 var or 39 default 39 打印内容并带一个默认值 var 打印转义内容 Comment 注释 64 extends 39 layout 39 继承模板 layout 64 if condition if开始
  • Plotly安装与使用方法

    Plotly是新一代的Python数据可视化开发库 xff0c 它提供了完善的交互能力和灵活的绘制选项 本文将介绍新手如何安装plotly并编写第一个plotly绘图程序 xff0c 以及使用plotly绘制常见的5种数据图表 与Matpl
  • MOSFET数字孪生实战【Python】

    本文将介绍如何使用 Python 构建电子开关 xff08 晶体管 xff09 的数字孪生 1 什么是数字孪生 xff1f IBM 将数字孪生定义如下 数字孪生是一种旨在准确反映物理对象的虚拟模型 xff0c 并指出创建数字孪生的主要促成因
  • Python三维地址建模教程【Gempy】

    Gempy 是一个开源 Python 库 xff0c 用于生成完整的 3D 结构地质模型 该库是从界面 断层和层方向创建地质模型的完整开发 xff0c 它还关联地质层序列以表示岩石侵入和断层顺序 地质建模算法基于通用协同克里金插值法 xff
  • 10个值得收藏的ChatGPT辅助编程技巧

    在我们开始之前 xff0c 你必须先了解编程语言 xff0c 然后才能相信 ChatGPT 抛给你的任何东西 我必须明确这一点 xff0c 因为许多误入歧途的绵羊被告知 ChatGPT 是新的圣杯 xff0c 开发人员将被淘汰 推荐 xff
  • Stable Diffusion - API和微服务开发

    Stable Diffusion 是一种尖端的开源工具 xff0c 用于从文本生成图像 Stable Diffusion Web UI 通过 API 和交互式 UI 打开了许多这些功能 我们将首先介绍如何使用此 API xff0c 然后设置