现在用AI画画,完整草图都不需要了。
每一笔落下,AI都会实时交上“新作业”
细节、颜色、画布空白,它都自动补全。
【资料图】
还能通过提示词来控制生成图像的内容和风格。
比如加一句“一个穿长外套的编程客栈男人站在海边“,AI立马调整了作画方向:
最后成稿的作品如下,效果很奈斯。
怪不得网友表示,自己惊掉的下巴已经找不到了。
这就是最新火起来的AI实时作画项目,Reddit上的热度有1.8万。
有人还表示,这回似乎说明了,相较于取代人类,AI可能更大程度上会帮助人类艺术家创作。
如上效果是靠一个python脚本实现。
通过构建一个画布和一个图像生成框,然后把每次落笔后的草图发送给Automatic1111的API接口,这样就能基于Stable Diffusion和ControlNet的能力作画了。
其中,Automatic1111是一个基于Stable Diffusion的可便携部署的离线框架,封装了UI和一些功能,能通过可视化界面使用Stable Diffusion。
此外生成图像方面还使用了ControlNet的scribble模细化效果。
作者提醒说,想要让这个脚本能正常运行,一定要确保能调用Automatic1111webui的API,并且已经安装激活了ControlNet扩展。
可以通过修改payload.json文件来获取不同的jsprompt、seed和ControlNet模型。
在实时生成的速度上,作者表示现在看到的demo是他加速4倍后的结果,具体情况如何,恐怕还要看大家的显卡水平了。
所以不少网友看后的反应是:
1080要再次哭晕了……
也大佬推算了各个型号显卡可能带来的效果:
尽管硬件上还是有制约的……但这还是没影响大家的脑洞。
有人表示,这或许是未android来很多艺术家搞创作的方式了。
还有人说,未来已来了。
你觉得呢?
github地址:
https://github.com/houseofsecrets/SdPaint
参考链接:
[1]https://twitter.com/thekitze/status/1648627002822254593?s=20
[2]https://www.reddit.com/r/StableDiffusion/comments/12pcbne/i_mad_a_python_script_the_lets_you_scribble_with/
—完—