普通视图

发现新文章,点击刷新页面。
今天 — 2025年9月7日首页

Nano Banana免费方案来了!Docker 一键部署 + 魔搭即开即用,小白也能玩转 AI 图像编辑

作者 wwwzhouhui
2025年9月6日 21:39

1.前言

Google 的 Nano Banana 是谷歌最新推出的图像生成与编辑模型,其正式名称为 Gemini 2.5 Flash Image 。该模型是谷歌在多模态AI领域的重要进展,专注于图像生成和编辑,具备强大的图像生成、编辑和多轮交互能力 。Nano Banana 被认为是目前最优秀的AI图像工具之一,其性能强大,效果出色,尤其在图像生成、编辑、动画制作等方面表现突出。

img

上周给大家做了一版本基于OpenRouter API 免费版本的Nano Banana dify工作流。对dify感兴趣小伙伴可以看我之前的文章。

dify案例分享-国内首发!手把手教你用Dify调用Nano BananaAI画图》。因为模型刚推出来,所以OpenRouter 也是第一时间免费提供这个基于Gemini-2.5-Flash-Image-Preview:free 模型给大家使用,每天免费额度是50次。为了这个工作流我还特意做了一个基于dify的插件的。目前已经上线dify 插件市场。

img

这两天陆续有小伙伴给我反映安装这个插件后,输入OpenRouter API key 报404 。结果我去OpenRouter 平台上没找到这个free模型了

变成了收费的Gemini-2.5-Flash-Image-Preview

img

难怪会报404 错了,于是我紧急更新了Nano Banana 这个插件 ,目前支持收费版本的Gemini-2.5-Flash-Image-Preview模型了。

这个模型的费用大概是每张图片是0.04美金。我这个OpenRouter账号现在变成负的了。

img

之前给大家分享的dify工作流就不能免费体验了。工作流地址:dify.duckcloud.fun/chat/4FIzK6…

有一点点遗憾,有没有办法免费使用这个Nano Banana模型呢? 嘿嘿,今天又想了一个方法来实现这个免费版Nano Banana了。

折腾了一个下午的时间终于搞定了。给大家看一下效果:

img

img

上面是我测试的效果图,看起来不错吧。代码如何开发今天就不带大家展开讲解了。给大家介绍这个项目如何部署和使用吧。

2.项目部署及使用

目前这个项目我已经开源到github上了。项目地址:github.com/wwwzhouhui/…

img

为了方便大家部署我们这里也制作了基于docker镜像版本。详细步骤可以看我开源项目README.md文档。这里我们给大家介绍基于docker方式部署。

docker 镜像下载

docker 镜像我已经推送到dockerhub 镜像仓库了。hub.docker.com/r/wwwzhouhu…

img

我们输入下面命令下载到本地(你电脑前提需要安装好docker)

docker pull wwwzhouhui569/aitop100-nano-banana:latest

我是推送镜像上去的,所以我本地是已经有这个镜像了。

我们输入 docker images 查看下载好的镜像

img

以上就确保我们镜像下载完成。

获取aitop100 token

在启动这个镜像之前我们需要到www.aitop100.cn/ 网站上获取一个api token.

小伙伴如果没有这个网站的账号的,可以自行注册一下。这个非常简单这里就不过多介绍了。

img

登录网站后点击对话按钮进入AI聊天对话页面,进入对话页面我们选择这个Nano Banana模型

img

我们点开左边聊天窗口,右边就显示了我用API 接口生成的图片

img

这个这个不是重点,重点是我们需要获取api token 。

浏览器F12 从Appliation>Cookies 中找到 token ey开头的一长串值,这个就是token 值。

img

按照上图1、2、3步骤 拿到这个token值。

img

按照上面步骤我们就拿到token了。

启动程序

我们回答命令行窗口输入下面命令

docker run -d
--name aitop100-nano-banana
-p 8000:8000
-p 7860:7860
-e AITOP100_TOKEN=xxxxxxxx
-v (pwd)/logs:/app/logs v(pwd)/logs:/app/logs \ -v (pwd)/generated_images:/app/generated_images
wwwzhouhui569/aitop100-nano-banana:latest

上面都是docker run命令,我这就不解释了。上面获取的token 需要替换-e AITOP100_TOKEN=xxxxxxxx 代码中的 xxxxxxxx (换成你在www.aitop100.cn 平台上获取的token).

img

看到上面的输出 我们在用docker ps 命令查看容器可启动了

docker ps

img

看到这个说明我们的容器镜像启动成功。

web 页面访问

我们打开浏览器输入下面地址http://localhost:7860/

img

看到上面的画面我们服务就启动好了,是不是非常简单,小白也会。

验证测试

这个使用就非常简单了,上传一个图片,然后下面输入提示词

img

哈哈效果不错吧,如果你想对修改后的图片继续修改。可以点击右边图片生成的下方“复制到输入区继续修改”

img

点击修改图片按钮等待生成图片

img

效果杠杠的。以上就完成了初步测试。

提示词介绍

如果有的小伙伴说,这个好看的提示词怎么写,我不会啊。 这里我们介绍另外一个开源项目。地址github.com/ZHO-ZHO-ZHO… 它里面有很多整理好的提示词。我这里刚好也把这个整合起来了。 我们可以点击“ano-banana 创意玩法大合集手册”

img

img

这里有非常多的提示词大家可以在这个页面找到。这里非常感谢这个大佬

img

整理这些提示词。

后面怎么玩,大家自己在研究吧。

3.项目体验

考虑到很多小伙伴不一定会在自己电脑上安装docker,另外源码部署需要一点pyhon 的基础。所以我们这里借用魔搭社区平台提供的创空间免费提供的CPU 算力部署了一版,方便不想安装只想体验的用户。

访问地址:modelscope.cn/studios/zho…

img

使用方法前面已经介绍过了,大家可以自己去体验。觉得项目不错,麻烦帮我点个赞

img

4.总结

今天主要带大家了解并实现了免费使用 Nano Banana(Gemini 2.5 Flash Image)模型的完整方案,从开源项目的部署(包括 Docker 镜像的下载与启动),到 aitop100 token 的获取(通过网站注册与浏览器开发者工具提取),再到 Web 界面的使用(图片上传、提示词输入、多轮编辑),以及魔搭社区免费体验渠道的提供,还整合了丰富的提示词资源,形成了一套覆盖 Nano Banana 免费使用全流程的实操指南。

通过这套实践方案,用户能够突破 OpenRouter 免费版本失效的限制,低成本甚至零成本体验 Nano Banana 的强大图像生成与编辑能力 —— 无需担心付费门槛,借助 Docker 部署的简化流程,即使是技术小白也能快速搭建服务,配合提示词资源库,轻松上手各类创意玩法,极大降低了 AI 图像工具的使用门槛。在实际操作中,该方案稳定支持多轮图像编辑需求,无论是单张图片修改还是持续创意迭代,都能通过直观的 Web 界面完成,有效解决了普通用户想体验优质 AI 图像模型却受限于付费或技术壁垒的问题。同时,项目开源特性为后续功能迭代提供了基础,开发者可基于此进一步扩展功能,而魔搭社区的体验渠道则为不愿本地部署的用户提供了便捷入口,让更多人能轻松接触到前沿 AI 图像技术。

感兴趣的小伙伴可以按照这份指南尝试部署使用,或直接通过魔搭社区体验 Nano Banana 的魅力。今天的分享就到这里结束了,我们下一篇文章见。

昨天以前首页

dify插件开发-Dify 插件如何顺利上架应用市场?流程 + 常见问题一次讲透

作者 wwwzhouhui
2025年9月4日 22:43

1.前言

Dify 插件是 Dify 平台中的一种模块化组件,用于增强 AI 应用的能力,支持开发者通过即插即用的方式扩展平台功能。Dify 插件系统允许开发者或用户通过安装、上传和分享插件来扩展 Dify 的功能,从而提升 AI 应用的灵活性和能力。

Dify 插件的类型包括模型(Models)、工具(Tools)、代理策略(Agent Strategies)、扩展(Extensions)和插件包(Bundles)等。这些插件类型支持开发者根据具体需求选择和使用,以满足不同场景下的功能需求。例如,模型插件可以集成多种 AI 模型,工具插件可以调用第三方服务,代理策略插件可以定义代理节点的推理逻辑,扩展插件则提供端点功能,适用于简单场景。

img

之前有给大家做过关于dify插件开发的文章。《dify案例分享-零代码搞定 DIFY 插件开发:小白也能上手的文生图插件实战

和《dify案例分享-零基础上手 Dify TTS 插件!从开发到部署免费文本转语音,测试 + 打包教程全有》,上周由于google nano_banana

非常火爆我又基于dify插件做了一个nano_banana 插件,然后基于nano_banana的插件做了一个dify的工作流。

dify案例分享-国内首发!手把手教你用Dify调用Nano BananaAI画图》当时为了图方便就使用本地安装,后面安装过程中会有点小麻烦,然后我在群里面协助大家解决。

由于之前对dify 插件的上传应用市场不熟悉,导致不能及时上架dify应用市场,走了一些弯路。今天就带大家手把手教大家如何把制作好的dify 插件上传到应用市场上。 我们看一下我已经上架的三个插件

img

感兴趣的小伙伴可以在应用市场来体验三个插件。话不多说下面带大家制作如何上传这个插件。

2.插件文档要求

在上传插件市场之前文档有相关要求。

需要有一个PRIVACY.md 文档

大概内容如下

# Privacy Policy

This plugin processes your text prompts to generate images using the OpenRouter API. Here's how your data is handled:

## Data Processing

- **Text Prompts**: Your text content is sent to the OpenRouter API service to generate corresponding images
- **API Communication**: The plugin communicates with OpenRouter servers (https://openrouter.ai) to process text-to-image requests
- **Generated Images**: Image files are temporarily downloaded and processed by the plugin, then returned to your workflow
- **Model Selection**: You can choose from multiple AI models including Gemini, DALL-E, and Claude for image generation

## Data Storage

- **No Local Storage**: The plugin does not permanently store your text prompts or generated images locally
- **Temporary Processing**: All data processing is temporary and happens only during the image generation process
- **API Key Security**: Your OpenRouter API key is stored securely within your environment and is not logged or transmitted elsewhere

## Third-Party Services

- **OpenRouter API**: Your text prompts are sent to the OpenRouter image generation service to create images
- **Network Communication**: The plugin requires internet connectivity to communicate with OpenRouter servers
- **Service Provider**: OpenRouter API service (https://openrouter.ai) processes your requests according to their privacy policy
- **AI Model Providers**: Depending on your model selection, requests may be processed by Google (Gemini), OpenAI (DALL-E), or Anthropic (Claude)

## Optional Features

- **Image-to-Image Generation**: If you provide an input image URL, it will be downloaded, processed, and sent to OpenRouter for transformation
- **Image Processing**: Input images are temporarily downloaded, resized if necessary, and converted to appropriate formats before transmission

## Data Retention

- The plugin does not retain any user data after task completion
- Generated images are temporarily processed and immediately returned to your workflow
- No persistent storage of prompts, images, or user information within the plugin

## Data Transmission

- Text prompts and input images are transmitted securely over HTTPS to OpenRouter API
- Generated images are returned securely over HTTPS
- No data is shared with any other third parties beyond the OpenRouter service

有的小伙伴会问这个文档怎么写的? 不会写可以问AI 我的思路是把之前别人写的好的复制到当前项目下面。输入下面的提示词

请认真阅读我这个项目nano_banana,基于这个项目的内容修改下PRIVACY.md 关于插件项目隐私相关说明。原来的PRIVACY.md是基于别的项目参考拿过来的,需要修改的修改使用的内容用英文

我使用的是claude code . 或则ccr 模型可以用国内模型,阿里的魔搭社区每天送2000次积分,这个国内模型都可以实现。 关于ccr 安装不会? 可以看我之前的文章《免费玩转 AI 编程!Claude Code Router + Qwen3-Code 实战教程

通过上面的操作模型理解了你的项目功能并结合Privacy Policy 生成相关文档。

需要编写英文版本的README.md

这个就很好理解,你需要有一个项目介绍。因为考虑到dify走海外市场路线,所以需要英文README.md文档,我之前的文档是中文的,我让大模型给我生成

请基于README_CN.md 编写一个README.md 文档,内容都是英文的。

img

3.插件上传

首选我们需要把插件代码写好,并打包成difypkg 文件

img

关于如何打包可以看我之前的教程。这里就不做相信展开了。

fork项目

首选我们需要去 dify-plugins 项目中fork 这个项目到本地

img

我已经fork过了,所以显示我fork 后的项目

img

我们点击这个项目进入到我们fork插件项目

img

将仓库clone到本地

这里我们使用git 来clone 我这个fork的项目到本地

git clone github.com/wwwzhouhui/…

img

这个时候我们在本地就可以看到这个项目。

img

新建一个文件夹

由于我们是第一次上传,所以需要新建一个我们自己项目的文件。比如我的是wwwzhouhui,然后就是具体插件名称nano_banana

文件夹里面就是我要上传的这个插件。nano_banana.difypkg

img

创建新分支,将修改后的本地仓库搬运到分支中

接下来我们使用git 命令把这个插件提交到分支仓库中。

cd dify-plugins/
git checkout -b  2025090405
git add .
git commit -m "插件nano_banana"
git push origin 2025090405

img

pull request

这个时候我们在插件提交需要提交一个PR 实行代码的合并操作。

image-20250904215010624

完成后,进入你fork的仓库,找到该分支

点击

image-20250904175708420

填写信息提交, Plugin Author 填写我的名字、Plugin Name 填写我们上面插件名字 如:nano_banana,Repository URL 填写我们开源项目地址例如:github.com/wwwzhouhui/…

1. Metadata
Plugin Author: wwwzhouhui
Plugin Name: nano_banana
Repository URL: https://github.com/wwwzhouhui/nano_banana
2. Submission Type
 New plugin submission

 Version update for existing plugin

3. Description
4. Checklist
[x] I have read and followed the Publish to Dify Marketplace guidelines
[x] I have read and comply with the Plugin Developer Agreement
[x] I confirm my plugin works properly on both Dify Community Edition and Cloud Version
[x] I confirm my plugin has been thoroughly tested for completeness and functionality
[x] My plugin brings new value to Dify
5. Documentation Checklist
Please confirm that your plugin README includes all necessary information:

 Step-by-step setup instructions
 Detailed usage instructions
 All required APIs and credentials are clearly listed
 Connection requirements and configuration details
 Link to the repository for the plugin source code
6. Privacy Protection Information
Based on Dify Plugin Privacy Protection Guidelines:

Data Collection
Privacy Policy
 I confirm that I have prepared and included a privacy policy in my plugin package based on the Plugin Privacy Protection Guidelines

这里需要注意的是这个插件仓库对提交文件有一定的要求。必须要只能上传一个文件,并且文件是.difypkg 文件。超过多个文件是不能触发自动检查的,这里会导致自动执行action失败。

img

下面的是错误的3个文件

image-20250904215803680

按照上面要求提交后,系统自动触发action

image-20250904215853854

上面出现后等待代码合并,合并完成后就可以了。

这里非常感谢彻夜之歌 🍌布拿拿 和非法操作 两位大佬的指导

img

后面插件代码合并后我们就可以在应用市场看到了

img

4.常见问题

插件签名验证问题

之前没有使用插件市场上下载插件,通过本地上传插件会出现下面这个错误

image-20250904220325233

这个问题主要是因为插件本地安装没有通过dify 安全验证 ,所以我们需要在.env文件中修改配置

FORCE VERIFYING SIGNATURE=false

img

默认的这个FORCE VERIFYING SIGNATURE=true,

如果从插件市场下载,这里就不需要设置.

安装nano_banana生成图片显示不了

image-20250904220716587

这个问题主要是因为生成的图片链接需要通过公网访问,我们需要把下面配置修改

1.env 文件中查找FILES_URL

默认的FILES_URL是空的,我们需要修改使用 http://:5001 或 http://api:5001,在此情况下,确保外部可以访问端口 5001

image-20250510003900660

2.docker-compose.yaml 对应的FILES_URL修改

image-20250510004029749

此外dify-api容器镜像端口开放出来(默认情况是不开放的),增加如下代码

  ports:

   - '5001:5001'

image-20250510004232125

我们也可以从docker容器看到端口开放情况(默认是不开启的)

image-20250510004416081

5.总结

今天主要带大家了解并实现了将 Dify 插件上传至应用市场的完整流程,从插件文档的规范准备(包括 PRIVACY.md 隐私政策的编写、英文 README.md 的生成),到通过 fork 仓库、本地克隆、创建分支、提交 PR 等步骤完成插件上传,再到常见问题的针对性解决,形成了一套覆盖插件上架全流程的实操指南。

通过这套实践方案,开发者能够更高效地将自己开发的 Dify 插件推向应用市场 —— 无需再为文档格式、上传步骤走弯路,借助规范的流程确保插件顺利通过审核,让更多用户能够便捷地获取和使用插件,极大降低了插件分享和推广的技术门槛。在实际操作中,该流程能够稳定支持各类 Dify 插件(如模型、工具、代理策略等)的上传需求,无论是新插件首发还是版本更新,都能通过清晰的步骤完成操作,有效解决了开发者对插件上架流程不熟悉、审核易受阻的问题。同时,该流程具备良好的扩展性 —— 开发者可以基于此持续迭代插件功能,通过多次 PR 提交实现版本更新,进一步丰富 Dify 应用市场的生态,为平台带来更多样化的功能扩展,满足不同场景下的用户需求。

感兴趣的小伙伴可以按照这份指南尝试将自己开发的 Dify 插件上传至应用市场,让优质插件发挥更大价值。今天的分享就到这里结束了,我们下一篇文章见。

dify案例分享-零代码用 Dify 使用梦 AI 3.0 多模态模型,免费生成影视级视频

作者 wwwzhouhui
2025年9月3日 11:44

1.前言

即梦AI作为字节跳动旗下的AI绘画与视频生成平台,近年来不断推出新的模型和功能,以提升用户体验和创作能力。

即梦AI 3.0是即梦AI的最新版本,于2025年4月发布,标志着其在中文生图模型上的重大升级。该版本不仅在中文生图能力上有所突破,还支持视频生成、多模态生成等高级功能。即梦AI 3.0的视频生成模型(视频3.0)在动作遵循能力、镜头遵循能力、物理模拟和情绪表达方面有显著提升。此外,即梦AI 3.0还支持“影视质感”效果,提供更高质量的图像输出.

image-20250903094815084

之前也有给大家介绍过关于即梦文生图和文生视频。《全网首发!即梦AI+dify工作流,带你领略AI绘画的无限魅力!》和《dify案例分享-5 步解锁免费即梦文生视频工作流,轻松制作大片》随着即梦AI模型的升级,生成的图片和生成的视频会有更好的效果。昨天在开源想项目上做了一下魔改目前可以实现最新的即梦3.1 模型(文生图)、即梦-Video3.0(文生视频)等模型了。今天就带大家做一个基于即梦AI绘画的免费支持文生图和文生视频的工作流。话不多说下面给大家看一下工作流的效果:

image-20250903101226356

文生图效果:

image-20250903101438291

文生视频:

image-20250903102410911

图生视频效果

img

img

img

打开视频链接

img

那么这样的工作流是如何制作的呢?下面带大家手把手做一遍。

2.工作流制作

开始

开始节点这地方设置比较简单,就是接受用户的提示词-prompt

image-20250204151131470

提示词 文本输入,这里主要是接受用户输入的提示词文本信息。

image-20250204151224236

目前dify 文本输入地方最大长度是256,这里小伙伴要注意了,如果提示词过长会截断的。

考虑到这个工作流支持文生图、文生视频,所以开始节点配置参数要比其他工作流多。主要是多了一下模型选择,type类型等。

image-20250903103013961

这个picture接受用户输入的图片,主要是为后面图生视频使用。(这块设置可选选)

image-20250903103153240

pmodel 主要是让用户选择文生图模型使用(这块设置可选选)

image-20250903103233693

vmodel主要是让用户选择文生视频模型使用(这块设置可选选)

image-20250903103408289

以上我们就完成了开始节点的设置。

条件分支

这个条件分支主要是目的根据用户选择(文生图、文生视频、图生视频等流程判断)

image-20250903103557455

HTTP请求

这个HTTP请求是调用一个后端一个接口服务,这个接口服务可以实现即梦AI文生图、文生视频、图生视频的逆向。大家可以使用即梦每天送的积分来使用。服务端部署这里就不做详细展开。

image-20250903103911570

使用这个接口是需要获取你即梦AI 平台sessionid,这个sessionid如何获取呢?

image-20250204154751565

http请求配置

请求地址 jimeng.duckcloud.fun/v1/images/g… 这个是nas部署 使用cloudfare 映射的一个带域名公网api接口地址

请求方式 post 请求

image-20250204152106170

heards部署 主要是接口请求的鉴权的配置。其实你也可以理解就是调用openai接口输入的api key 这个API 其实就是你登录即梦web网站产生的sessionid,我这里使用到环境变量的方式来实现的。

image-20250204152402033

image-20250204152501581

http 请求body部分如下:

文生图

{
"model":"{{#1756864683426.pmodel#}}",
"prompt":"{{#1756864683426.prompt#}}"
"negativePrompt":"",
"width":1536 ,
"height":864,
"sample_strength":0.5
}

文生视频

{
"model":"{{#1756864683426.vmodel#}}",
"prompt":"{{#1756864683426.prompt#}}"
"negativePrompt":"",
"width":1536 ,
"height":864,
"resolution": "720p"
}

图生视频

{
"model":"{{#1756864683426.vmodel#}}",
"prompt":"{{#1756864683426.prompt#}}"
"negativePrompt":"",
"width":1536 ,
"height":864,
"resolution": "720p",
"filePaths": ["{{#1756864683426.picture.url#}}"]
}

文生图的接口请求地址jimeng.duckcloud.fun/v1/images/g… 文生视频和图生视频请求地址 jimeng.duckcloud.fun/v1/videos/g… 其他配置基本是一样的。这里就以文生图截图为案例

image-20250903104601539

代码执行

代码执行的目的就是对HTTP请求返回的信息做一下处理,大体功能 是一样。

文生图代码

def main(arg1: str) -> str:
    import json

    # 解析输入的 JSON 数据
    try:
        data = json.loads(arg1)
    except json.JSONDecodeError:
        return "输入的字符串不是有效的 JSON 格式,请检查输入数据。"

    # 确保解析后的数据包含 'data' 键
    if not isinstance(data, dict) or 'data' not in data:
        return "输入的数据格式不正确,请确保输入是一个包含 'data' 键的 JSON 对象。"

    # 获取 'data' 键对应的数组数据
    image_data = data.get('data', [])

    # 确保 'data' 键的值是一个列表
    if not isinstance(image_data, list):
        return "输入的数据中 'data' 键的值不是一个数组,请确保其值是一个 JSON 数组对象。"

    # 初始化结果字符串
    markdown_result = ""

    # 遍历每条图片数据
    for index, item in enumerate(image_data, start=1):
        # 检查每条数据是否是字典,并且包含 'url' 字段
        if not isinstance(item, dict) or 'url' not in item:
            markdown_result += f"图片第{index}条内容:无法提取 URL(缺少 'url' 字段)\n"
            continue

        # 提取 URL 并生成 Markdown 格式的图片链接
        url = item['url']
        markdown_result += f"![图片{index}]({url})\n"

    # 返回最终的 Markdown 字符串
    return {"result": markdown_result}

文生视频和图生视频代码

def main(arg1: str) -> dict:
      import json

      # 解析输入的 JSON 数据
      try:
          data = json.loads(arg1)
      except json.JSONDecodeError:
          return {"result": "输入的字符串不是有效的 JSON 格式,请检查输入数据。"}

      # 确保解析后的数据包含 'data' 键
      if not isinstance(data, dict) or 'data' not in data:
          return {"result": "输入的数据格式不正确,请确保输入是一个包含 'data' 键的 JSON 对象。"}

      # 获取 'data' 键对应的数组数据
      video_data = data.get('data', [])

      # 确保 'data' 键的值是一个列表
      if not isinstance(video_data, list):
          return {"result": "输入的数据中 'data' 键的值不是一个数组,请确保其值是一个 JSON 数组对象。"}

      # 初始化结果字符串
      video_html = ""

      # 遍历每条视频数据
      for index, item in enumerate(video_data, start=1):
          # 检查每条数据是否是字典,并且包含 'url' 字段
          if not isinstance(item, dict) or 'url' not in item:
              video_html += f"<p>视频第{index}条内容:无法提取 URL(缺少 'url' 字段)</p>\n"
              continue

          # 提取 URL
          url = item['url']

          # 生成 HTML5 video 标签(Dify支持HTML显示)
          video_html += f'''
  <div style="margin-bottom: 20px;">
      <h3>视频 {index}</h3>
      <video width="400" controls>
          <source src="{url}" type="video/mp4">
          您的浏览器不支持视频播放。
      </video>
      
      **视频链接:** {url}
  </div>
  '''

      # 返回最终的视频显示内容
      return {"result": video_html}

image-20250903104831021

直接回复

这个也比较简单,主要的目的就是文生图、文生视频、图生视频返回信息给客户展示。

image-20250903104930366

另外两个配置和上面一样这里就不做展开。

以上我们就完成了工作流的搭建,是不是比较简单。

3.使用

提示词:用户填写提示词就可以了, 因为即梦AI 绘画中文提示词比较友好,这里就没有用大模型做提示词优化了。

image-20250903105141558

类型

这个类型下拉选项可以选择(文生图、文生视频、图生视频)这个比较好理解,大家根据自己需要选择一个就可以了。

image-20250903105238709

图片这里如果需要图生图的 就上传,如果没有用到这块可以不用管。

image-20250903105315360

文生图模型 提供即梦AI 平台上主要的几个模型(jimeng-3.1、jimeng-2.1、jimeng-2.0-pro、jimeng-2.0、jimeng-1.4、jimeng-xl-pro)

大家根据自己需要选择模型,当然模型越新模型能力越强。默认可以选择jimeng-3.1

image-20250903105517427

视频模型 和上面类似,主要提供即梦AI 平台上的视频模型(jimeng-video-3.0、jimeng-video-2.0)

image-20250903105641111

这里有一个地方需要解释下,如果大家对生成的视频尺寸有要求,比如想要9:16 的 这里需要修改http请求的 width":1536 ,"height":864。 我这里也有一个比较常见的配置说明:常用的文生图、文生视频比例提供如下三种

1:1 width:1024,height:1024

16:9 width:1536,height:864

9:16 width:864,height:1536

image-20250903105857118

调整完成后 需要多工作流点击保存并发布才能生效。

dify工作流体验地址

工作流地址:dify.duckcloud.fun/chat/rx8PtS…

由于我账号不是会员号,每天送80积分,文生图每次消耗1积分。文生视频消耗比较多3.0的视频大概一次10积分,积分消耗完大家就等明天吧。

4.总结

今天主要带大家了解并实现了基于 Dify 工作流构建即梦 AI 3.0 多模态生成系统的完整流程,该系统以即梦 AI 最新的文生图 3.1 模型、视频 3.0 模型为核心,结合 Dify 平台的工作流逻辑和灵活的节点配置能力,形成了一套覆盖文生图、文生视频及图生视频的全场景生成方案。

通过这套实践方案,用户能够低成本体验即梦 AI 的高级生成能力 —— 借助平台每日赠送的免费积分,无需复杂的后端开发,就能快速生成具备影视质感的图像和动作、镜头遵循能力优异的视频,极大降低了 AI 创作的技术门槛和使用成本。在实际验证中,该工作流能够稳定响应不同类型的生成需求,无论是通过中文提示词直接创作,还是上传图片进行二次视频生成,都能产出符合预期的高质量内容,有效解决了普通用户调用即梦最新模型流程繁琐、专业参数配置复杂的问题。同时,工作流具备良好的扩展性 —— 小伙伴们可以基于此框架扩展更多实用功能,如短视频平台的批量素材生成、广告创意的多版本快速迭代、教育场景的动态内容制作等,进一步丰富 Dify 平台的多模态创作应用场景。

感兴趣的小伙伴可以按照这份指南尝试搭建自己的即梦 AI 生成工作流,甚至结合其他 AI 工具拓展更多创意玩法。今天的分享就到这里结束了,我们下一篇文章见。

❌
❌