🫧 绘图参数详解 - Midjourney
前言
为了更适合中国用户和方便操作,提高效率
ArtChat 的参数设置为 可视化操作!并且进行了汉化!
您只需在左侧 [参数设置区] 对应参数中点击选择对应的数值即可!非常方便!记得打开 [携带参数] 按钮!
如果高玩大佬想自行设置参数,请记得关掉 [携带参数] 按钮,不同参数之间用空格隔开
比例
--aspect --ar- 参数释义:图片的宽高比例(宽:高)
- 调用方法:使用 --aspect(或--ar)来将其放置于您的提示词后面
- 使用案例:vibrant california poppies --ar 5:4
- 参数范围:可随意设置,但是建议使用常用比例

ArtChat 可视化选择比例
模型
MJ:
Midjourney 默认通用模型,能驾驭各种类型。写实效果比较好,偏真实类似于你拍照片一样
Niji:
插画漫画风格,模型对动漫风格和动漫美学有更多的了解。通常来说,它在动态和动作镜头以及以角色为中心的构图方面表现出色。

ArtChat 可视化选择模型
版本
--version --v- 参数释义:绘图使用的 Midjourney 版本
- 调用方法:使用 --version(或--v)来将其放置于您的提示词后面
- 使用案例:vibrant california poppies --v 6.1
- 参数范围:5.1、5.2、6、6.1(以新版为准)
版本一般都是最新的效果最好,不过新版会有一段时间的测试期,部分功能会受限
所以稳定出图的一般是 次新版,渲染速度也会快一些。

ArtChat 可视化选择版本
画质
--quality --q- 参数释义:更高质量需要更长的时间处理更多细节
- 调用方法:使用 --quality(或--q)来将其放置于您的提示词后面
- 使用案例:vibrant california poppies --q 2
- 参数范围:只能输入数值 0.25,0.5,1,2,5(默认值为1)
RAW
--style raw- 参数释义:呈现的人物写实感更加逼真,人物细节、光源、流畅度也更加接近原始作品
- 调用方法:使用 --style raw 来将其放置于您的提示词后面
- 使用案例:vibrant california poppies --style raw
风格参考
--sref一个非常重要的新功能,全名 Style Reference (风格参考),可以让AI生成相似风格的新图像
用法:
- 参数值为seed值
--sref 图片的值
- 参数值为网址
--sref urlA urlB urlC
- 参数值加权重
--sref urlA::2 urlB::3 urlC::5
(即权重比例为 2:3:5)
在实际使用中一般配合 --sw
参数使用(风格参考权重,值为 0~1000)
角色参考
--cref全名 Character Reference(角色参考),可以让AI生成相似人物面部的新图像
用法:
- 参数值为seed值
--cref 图片的值
- 参数值为网址
--cref url
在实际使用中一般配合 --cw
参数使用(风格参考权重,值为 0~100)

ArtChat为可视化上传,无需手动填写参数
种子
--seed种子号码是每个图像随机生成的,每个种子号代表的图片都是唯一的
seed 值为介于 0–4294967295
之间的整数,可以通过 --seed
或 --sameseed
参数指定
使用相同的种子号码和提示将产生内容相似的最终图像。
平铺
--tile类似于瓷砖块一样可连续图案,生成可以用作重复图块的图像,以创建无缝图案。

个性化
--personalize --p熟悉 AI 绘画的小伙伴应该都对 Lora 模型有所了解,它以与大模型配合使用,来生成更具风格化的图像。Midjourney 新推出的 Personalization 个性化功能就可以视为一种 lora,它能对原本的模型进行微调,来生成风格更独特的图像。
-
用户首先要在Midjourney官网 Rank Images 版块内,完成至少 200 组图像评级。在这个过程中,系统会记录下你的风格偏好,并以此为基础对原本的模型进行风格微调,你选择图像的过程就等于是在训练 lora 模型。这一步必须先完成,否则无法调用 Personalization 功能。
-
上一步完成后,在提示词后加上
--p
参数发送出去后,生成的图像就会显示出你的专属风格,与默认模型会有明显不同。系统还会返回一个对应的个性化代码,比如我的就是--personalize jsg4hzo
,风格比默认模型更明亮柔和。每个用户的个性化代码都不一样, 并且支持分享,使用他人的代码就相当于用他的专属风在生成图像 -
个性化风格的强度也可以通过
--s
参数来调节,数值范围0-1000
,默认值100
,数值越高风格越明显。
若您无法登录Midjourney,您可以在搜索引擎或社交网站寻找大神的分享
怪异美学
--weird--weird [0–3000]
或者 --w [0–3000]
使用实验性的 --weird
参数探索不寻常的美学。随机出现一些意想不到的怪异内容
这个参数为生成的图像引入了古怪和非传统的特质,导致独特而意想不到的结果。

lithograph potato --weird 250
质量
--quality --q--quality
参数可以控制生成一张图像所消耗的 GPU 时间,在 v6 模型中,只接受 0.25
/ 0.5
/ 1
三种数值,所以大家应该很长时间都没有使用过 --q 2
这个参数了。
新版 v6.1 开始,标准图像的生成速度比之前提升了 25%
,相对应的,--q
的数值范围也变为 0.5
/ 1
/ 2
:
--q 1
是默认值--q 0.5
表示消耗的 GPU 时间更少,生成速度更快,但对应地图像细节会更少--q 2
则会用更多的时间(比默认多 25% )生成一张图像,让画面的细节纹理更丰富,但也可能降低画面与提示词的一致性

也就是说,如果 v6
生成一张图消耗的 GPU 时间是 8s
, 那么 v6.1
只需要 6s
;但我们可以通过启用 --q 2
参数,用 7.5s
的时间来生成这张图像,获取更丰富的细节;而如果你想快速测试一些不成熟的提示词,或者生成极简图像,就可以使用 --q 0.5
参数,来节省 GPU 时间,减少不必要的画面细节。

混乱
--chaos --c- 参数释义:较高值将产生意想不到的结果和成分,较低值具有更可靠、可重复的结果
- 调用方法:使用
--chaos
(或--c)来将其放置于您的提示词后面 - 使用案例:
vibrant california poppies --c 10
- 参数范围:
0-100
三叔不经常使用 --chaos
,除非我想获得一些灵感 或者 想为图片增添些随机的元素
- 数值越低,生成的结果在风格、构图上较相似
- 数值越高,风格、构图的差异会越大,会有让人意象不到的结果
对于一般的渲染建议
20
以下,5-15
最优,即使稍微一点随机性,但是基本还是可控的。
下面是不同参数的设置:
提示词:a cat
参数分别为:0,20,50,100

--c [0,20,50,100]
ArtChat 测试下来发现并没有明显的风格差异
参数为 0
时会较多的出现特写镜头,20
时多位半身镜头,但是到 50
的时候,开始大半身或者全身
于是我们提示词中加上了 [全身视角] 提示词又测了一遍:
玄学来了,渲染的图还是头部特写,这难道是一个bug?为了画图准确,我建议渲染人或动物时注意这个问题
总结一下:
混乱参数的值越大,与提示词不相关的元素越多,适合找灵感时使用,平时出图建议小一点,30以内即可
通过不断测试,发现在 10-30 之间出来的效果最好
风格化
--stylize --s- 参数释义:风格化,数值越高,画面表现也会更具丰富性和艺术性
- 调用方法:使用
--stylize
(或--s)来将其放置于您的提示词后面 - 使用案例:vibrant california poppies --stylize 500
- 参数范围:1-1000
只在 Midjourney 通用模式下有效,niji模式下无效
此参数影响您生成图片画面的“艺术性”和"创造力"强度
- 较低的值会更接近原始提示,但画面会较平淡
- 较高的值会生成非常艺术化的图像,但可能偏离原始提示。

minimalist, distorted perspectives, transparent, chromatic aberration, black background
--s [0, 100, 1000]
高度风格化(~750 → 1000)
- 允许Midjourney更具创造力
- 可能产生与原始提示不太相关但在艺术上有解释性更强的结果
低度风格化(0 → ~250)
- 当主要目标是使图像像与提示密切对齐时很有用
- 在创造力方面受限制,输出将缺乏视觉冲击力。
让我们来举例说明:
提示词:
oversaturated 35mm photo of a beautiful woman in Los Angeles (35毫米镜头过饱和拍摄的洛杉矶美女)

--s [0, 100, 250, 500, 750, 1000]
via:@hugovntr
就个人而言,我喜欢保持 --stylize
在 250 和 500 之间。
这样一来,Midjourney 就有足够空间发挥创意,并同时保留整体上对提示内容完整性。