【实测】白嫖 Google Colab T4 跑阿里的“造相” (Z-Image-Turbo),竟然还能开 WebUI?
最近 AI 绘图圈子又热闹了,阿里的通义实验室刚发了个新模型叫 Z-Image-Turbo(中文名“造相”)。号称 60 亿参数、8 步采样就能出图,甚至还支持中英文混排渲染。
听起来很美好,对吧?但一看配置要求,很多人(包括我)手里的老显卡就开始瑟瑟发抖。
不过,结合 NeuralFalconYT 的油管教程 和 老E的博客,我发现原来大神已经把路铺平了。
最惊喜的是,NeuralFalconYT 提供的版本不仅仅是跑代码,还贴心地套了个 WebUI!这意味着我们可以在 Google Colab 的免费 T4 显卡上,像用 SD WebUI 一样点点点就能出图。
今天就带大家实操一下,看看这个“Turbo”加持的 WebUI 版在云端到底香不香。
为什么要折腾这个?
简单说两个理由:
它是真·懂中文:原生支持在图里写汉字,生成的招牌、海报不像“鬼画符”了。
有界面(WebUI):不用对着枯燥的代码框改参数,这就很舒服。
穷:本地显存不够,只能薅 Google 的羊毛。
✋ 准备工作
Google 账号。
魔法上网(连 Colab 必备)。
GitHub 链接(下面会给)。
🚀 部署步骤(带 WebUI 版)
第一步:获取 Notebook
这次我们直接用 NeuralFalconYT 大佬整理好的 GitHub 仓库。
👉 点击进入 GitHub 仓库: Z-Image-Colab
进去后,在 README 文件里找那个 "Open in Colab" 的蓝色按钮,点它!
第二步:关键设置(必看!)
进去了别手滑直接点运行!先做两件事:
看右上角,一定要连接到 T4 GPU。
点菜单栏的【修改】 -> 【笔记本设置】,确认硬件加速器是 T4 GPU。
注意:如果你用的是 CPU 跑,那基本上是跑不动的。
第三步:一键运行
点击那个大大的 “全部运行” (Run All) 或者一个个点播放键。
脚本会自动安装环境、下载 4-bit 量化模型。
此时你可以去喝杯水,安装过程大概需要几分钟。
红字报错警告:如果看到 pip 依赖报错,只要代码没停,通常直接忽略即可。
第四步:见证奇迹的时刻
当最后一个代码块跑完后,留意底部的输出信息。
你会看到一个类似 Running on public URL: https://xxxx.gradio.live 的链接。
点开它!
这就是我们要的 WebUI 界面。终于不用在代码行里改 Prompt 了,直接在网页里输入:
Prompt: 想画啥写啥(支持中文!比如“赛博朋克街道,霓虹灯写着‘夜之城’”)。
Negative Prompt: 不想要的元素。
Generate: 点击生成。
🤔 真实体验 & 避坑指南
1. 速度怎么样?
实测在 T4 上,生成一张图大概需要 1 分钟左右(约 67 秒)。
虽然没有本地高端卡那么丝滑,但因为有了 WebUI,等待的时候你可以去调整参数,体感上比干等代码跑完要好很多。
2. 显存够用吗?
稳:大佬做的这个版本用了 4-bit 量化,显存占用控制得很好,T4 的 16G 显存绰绰有余。
别作死:尽量别开太离谱的高分辨率,毕竟 Colab 免费版的系统内存(RAM)给得不多,爆内存还是会崩的。
3. 效果如何?
中文渲染:依旧是它的杀手锏。路牌、标语、海报文字,识别率非常高。
交互体验:有了 Gradio 做的 WebUI,调整步数(Steps)、提示词权重什么的方便多了,这才是现代 AI 玩家该有的体验嘛。
📝 总结
如果你没有高端显卡,又想尝鲜阿里的这个“造相”模型,强烈建议用 NeuralFalconYT 这个带 WebUI 的版本。
优点:
有 WebUI!有 WebUI!有 WebUI!(重要的事情说三遍)。
白嫖 Google 算力,零成本。
中文理解能力满分。
缺点:
T4 毕竟是老将,出图速度不算快,稍微要有的一点耐心。
免费版 Colab 可能会断连(Runtime Disconnect),记得别闲置太久。
一句话建议: 趁着链接还能用,赶紧去 GitHub 领那个 Notebook,体验一下“打字就能生成中文海报”的快乐!
🔗 资源传送门:
GitHub 项目 & Colab 入口:https://github.com/NeuralFalconYT/Z-Image-Colab
图文参考:AppsCross - 老E的博客
评论
发表评论