1.汤晓鸥弟子带队:免调优长视频生成,可支持512帧!任何扩散模型都能用|ICLR'24
想要AI生成更长的视频?
现在,有人提出了一个效果很不错的免调优方法,直接就能作用于预训练好的视频扩散模型。
它最长可支持512帧(假设帧率按30fps算,理论上那就是能生成约17秒长的作品了)。
https://arxiv.org/abs/2310.15169
Huggingface体验demo:https://huggingface.co/spaces/MoonQiu/LongerCrafter
2.全世界机器人共用一个大脑,谷歌DeepMind已经完成了第一步
https://twitter.com/dotey/status/1746414853311377455
https://spectrum.ieee.org/global-robotic-brain
https://mp.weixin.qq.com/s/k3iXMZtdtzoP8ZuA5_Htww
3.如何使用Hugging Face 在2024年微调LLM
文章概述了一个从头到尾的LLM微调流程,包括定义用例、准备数据集、模型选择和微调、评估、部署等步骤。
重点介绍了Hugging Face的新库TRL,它简化了LLM的微调工作,支持各种训练优化技术。
展示了如何使用QLoRA等参数高效微调技术,在消费级GPU上就可以微调十几亿参数的模型。
使用OpenAI的CodeLLaMA-7B模型在文本到SQL任务上进行示例,并测试了微调模型的性能。
https://twitter.com/_philschmid/status/1749811106611388642?s=20
https://www.philschmid.de/fine-tune-llms-in-2024-with-trl
4.开源项目LLM领域知识助手
https://github.com/InternLM/HuixiangDou
5.Orion-14B 系列模型包括一个具有140亿参数的多语言基座大模型以及一系列相关的衍生模型,包括对话模型,长文本模型,量化模型,RAG微调模型,Agent微调模型等。
https://github.com/OrionStarAI/Orion
6.MM-LLMs:近期多模态大语言模型进展
文章综述了当前多模态大语言模型(MM-LLM)的最新进展。
从模型架构和训练流程两个方面介绍了MM-LLM的一般设计形式。
简要介绍了26种现有的MM-LLM模型,每种都有其特定的设计形式。