当前位置: 首页 > news >正文

超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

  • 一、简介
    • 1.1 AI绘图
    • 1.2 Stable Diffusion
      • 1.2.1 原理简述
      • 1.2.2 应用流程
  • 二、AI绘图工具
    • 2.1 吐司TusiArt
    • 2.2 哩布哩布LibLibAI
    • 2.3 原生部署
  • 三、一键即用
    • 3.1 开箱尝鲜
    • 3.2 模型关联
    • 3.3 ControlNet
  • 四、总结

一、简介

1.1 AI绘图

AI绘图就是输入一些描述语句(文生图)或者图片(图生图),AI根据输入信息可以生成创意画作。AI绘图是当下AI最火热的应用领域之一,也是生成式人工智能AIGC的一种。

常见AI绘图软件如下:
在这里插入图片描述
(1)文心一格

文心一格是基于百度飞桨和文心大模型的文生图系统,是一种AI艺术和创意辅助平台。通过文心一格智能生产多样化创意图片,并从中汲取创意灵感,打破创意瓶颈。

在这里插入图片描述

(2)Midjourney

Midjourney可根据文本生成图像,于2022年7月12日进入公开测试阶段,只需要通过输入关键字,就能透过AI算法生成相应的图片,Midjourney里有众多画家的艺术风格,例如达芬奇、达利和毕加索等,还能识别特定镜头或摄影术语。

Midjourney的应用场景非常广泛,可以用于海报、IP设计、广告设计、创意设计、艺术教育、漫画创作等领域。

在这里插入图片描述

(3)Adobe Firefly

萤火虫(Firefly),是2023年3月22日Adobe推出的创意生成式AI,使用文字来生成图像、音频、插图、视频和3D图像。Firefly将提供构思、创作和沟通的新方式,同时显著改善创意工作流程。

在这里插入图片描述

(4)Stable Diffusion

Stable Diffusion是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够跟进任意文本输入生成高质量、高分辨率、高逼真的图像。相对传统的生成模型,Stable Diffusion生成的图像质量更高、速度更快、成本更低。

在这里插入图片描述

1.2 Stable Diffusion

本文主要基于Stable Diffusion进行分享,因为↓

在这里插入图片描述

1.2.1 原理简述

从名字Stable Diffusion就可以看出,这个主要采用的是扩散模型(Diffusion Model)。简而言之,扩散模型就是去噪白编码器的连续应用,逐步生成图像的过程。

在这里插入图片描述

Diffusion 的含义本质上就是一个迭代过程。扩散是反复在图像中添加小的、随机的噪声,而扩散模型则与这个过程相反,将噪声生成高清图像,训练的神经网络通常为U-net。

在这里插入图片描述

1.2.2 应用流程

流程主要分为4步:

  1. 选择正确地模型
  2. 输入准确的提示词
  3. 参数调整
  4. 后期处理技术
    在这里插入图片描述
    (1)关于模型

Stable Diffusion模型主要分为大模型和微调模型。常见的大模型为Checkpoint(ckpt)和safetensors两种格式,通常是通过Dreambooth训练得到,特点是出图效果好,但是训练过程较慢且生成的模型文件较大;而微调模型一般需要配合大模型使用,常见包括Lora模型、VAE模型、Embedding模型和Hypernetwork模型。

在这里插入图片描述

本文分享主要是基于Lora模型。Lora直译为大语言模型的低阶适应。Lora文件大,保存的信息量大 ,对人物的还原、动作的指定和画风的指定效果比较好。
在这里插入图片描述

(2)关于提示词

Stable Diffusion提示词分为正向提示词反向提示词,一般需要包含【画面质量】+【画面风格】+【画面主体】+【画面场景】+【其它元素】。

在这里插入图片描述

二、AI绘图工具

2.1 吐司TusiArt

吐司Tusi.Art是一款基于Stable Diffusion的AI图片生成平台,每天有100算力点、即可生成100张图片,且可以高清下载。

在这里插入图片描述

2.2 哩布哩布LibLibAI

LiblibAI基本 1:1 还原了Stable Diffusion跑图界面(有一定阉割),跑图最一目了然、简洁高效的界面,且非常容易上手。另外,LiblibAI每天也可以免费跑100张AI图,后续演示主要基于LiblibAI进行。

在这里插入图片描述

2.3 原生部署

本地或云端部署原生Stable Diffusion,例如阿里云云部署↓。

在这里插入图片描述

三、一键即用

3.1 开箱尝鲜

注册登录哩布哩布LibLibAI后,直接点击【在线生图】

在这里插入图片描述

进入到【在线生图】页面后,直接点击【生成图片】,开箱尝鲜。

在这里插入图片描述

3.2 模型关联

在主页选择一个参照模型,点进去。

在这里插入图片描述

点击【加入模型库】,然后鼠标移动到模型的【生成信息】,复制其中的正向提示词、反向提示词以及采样方式到【在线生图】页面中。

在这里插入图片描述

在【在线生图】中,CV好【生成信息】后点击【生成图片】。

如果发现脸变形有崩掉的情况,则需要调大生成图片的的宽度和高度。因为每张图片都有尺寸大小,尺寸不够且需要的元素太多就容易挤在一起导致图片崩坏。

在这里插入图片描述

3.3 ControlNet

ControlNet是一种神经网络概念,就是通过额外的输入来控制预训练的大模型。SD中的ControlNet插件可以通过模型精准的控制图像生成,比如:上传线稿让AI控制人物的动作姿态、边缘检测、柔和边缘和涂鸦乱画等等。

如下是一个涂鸦乱画的示例(首先需要上传一张ControlNet参考图):

在这里插入图片描述

上传后选择 Scribble 的Control Type,然后点击爆炸图标。

在这里插入图片描述

填入提示词(想象力):[A hot air balloon is floating in the sky and the full appearance of the balloon can be seen. ],然后点击【生成图片】

在这里插入图片描述

四、总结

至此,超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)介绍完成,后续会陆续输出更多AI绘图相关的篇章;查阅过程中若遇到问题欢迎留言或私信交流。

http://www.lryc.cn/news/204666.html

相关文章:

  • 【蓝桥每日一题]-动态规划 (保姆级教程 篇12)#照相排列
  • 纺织工厂数字孪生3D可视化管理平台,推动纺织产业数字化转型
  • 【七】SpringBoot为什么可以打成 jar包启动
  • 031-第三代软件开发-屏幕保护
  • Ubuntu 22.04 更新完内核重启卡在 grub 命令行解决办法
  • Stream流式处理
  • ROG STRIX GS-AX5400 使用笔记
  • 【刷题-PTA】堆栈模拟队列(代码+动态图解)
  • FileUpload控件上传文件时出现 不支持给定路径的格式.的解决方法
  • 这两天的一些碎碎念
  • Unity 最新DOTS系列之《Baking与Baker的详解》
  • 【Tensorflow 2.12 简单智能商城商品推荐系统搭建】
  • Unity 单例-接口模式
  • 【Java 进阶篇】Java XML解析:从入门到精通
  • 【图像配准】Canny边缘检测+模板配准红外可见光双路数据
  • 关于单机流程编排技术——docker compose安装使用的问题
  • Google Chrome的新“IP保护”功能将隐藏用户的IP地址
  • 做机器视觉工程师,苏州德创能不能去工作?
  • 交换机基础(二):VLAN 基础知识
  • 一个基于Vue3搭建的低代码数据可视化开发平台
  • 经验风险最小化与结构风险最小化:优化机器学习模型的两种方法
  • Java泛型中的问号是什么意思
  • 粤嵌实训医疗项目day02(Vue + SpringBoot)
  • 又是一年1024程序员日
  • acme.sh签发和部署ZeroSSL泛域名证书
  • Calibre拾遗:FDI (Foreign Database Interface)系统简介
  • 记一次渗透测试事件
  • AIGC笔记--基于DDPM实现图片生成
  • 三十七、【进阶】SQL的explain
  • 【Python】取火柴小游戏(巴什博弈)