#AI #折腾 #图生视频
成功在 5090D 上跑起来了 FramePack,遇到了经典 CUDA 架构兼容性问题
官方解决方案是这样的,先卸载旧的 PyTorch 然后装 cu128,我这边是解决了。但是速度比 GitHub 上说的要慢一些(一开始慢,后面快)
然后愉快的跑起来了,效果是很 Amazing 了,太 NB 了。(用之前 AI 生的头像结合 AI 给的 Live2d 视频提示词然后跑 AI Live2d 视频)
Use TeaCache 的速度是大概 2.3~2.5s 一帧,感觉这个速度肯定是有点问题的,不过问题不大。
提示词是:
ps: 经典 webui 连着连着就断了最后只能去 output 文件夹里直接拿23333
https://fixupx.com/karminski3/status/1913775123913707699
成功在 5090D 上跑起来了 FramePack,遇到了经典 CUDA 架构兼容性问题
官方解决方案是这样的,先卸载旧的 PyTorch 然后装 cu128,我这边是解决了。但是速度比 GitHub 上说的要慢一些(一开始慢,后面快)
pip uninstall -y torch torchvision torchaudio
pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128
然后愉快的跑起来了,效果是很 Amazing 了,太 NB 了。(用之前 AI 生的头像结合 AI 给的 Live2d 视频提示词然后跑 AI Live2d 视频)
Use TeaCache 的速度是大概 2.3~2.5s 一帧,感觉这个速度肯定是有点问题的,不过问题不大。
提示词是:
Transform the anime character into a Live2D-style subtle animation, maintaining the original pose while adding these micro-movements: slight head tilting (within 3-5 degrees range), hair gently flowing in a mild breeze, natural and slow blinking, occasional subtle lip movements, light fabric movements on clothing, and natural lighting/shadow changes that follow the character's micro-movements. Keep the overall scene stable, ensure smooth and natural motion without exaggerated movements. Maintain high image quality, 60fps, with a 5-10 second animation loop.
ps: 经典 webui 连着连着就断了最后只能去 output 文件夹里直接拿23333
https://fixupx.com/karminski3/status/1913775123913707699
karminski-牙医 (@karminski3): 来看这个牛逼的视频生成框架——FramePack
最牛逼的地方在于:使用 13B 模型生成 1 分钟视频(60 秒),30fps(1800 帧),最低所需的 GPU 内存为 6GB。(是的,6GB,不是打字错误。笔记本电脑 GPU 也可以。)
官方只提供了windows构建版本,下载后使用 update.bat 进行更新,使用 run.bat 运行。框架会直接从HuggingFace 上下载模型(大概30G,注意流量)。然后就能用了
地址:http://github.com/lllyasviel/FramePack