Skip to content

Latest commit

 

History

History
53 lines (26 loc) · 1.98 KB

2024-01-25.md

File metadata and controls

53 lines (26 loc) · 1.98 KB

1.汤晓鸥弟子带队:免调优长视频生成,可支持512帧!任何扩散模型都能用|ICLR'24

想要AI生成更长的视频?

现在,有人提出了一个效果很不错的免调优方法,直接就能作用于预训练好的视频扩散模型。

它最长可支持512帧(假设帧率按30fps算,理论上那就是能生成约17秒长的作品了)。

https://arxiv.org/abs/2310.15169

Huggingface体验demo:https://huggingface.co/spaces/MoonQiu/LongerCrafter

2.全世界机器人共用一个大脑,谷歌DeepMind已经完成了第一步

https://twitter.com/dotey/status/1746414853311377455

https://spectrum.ieee.org/global-robotic-brain

https://mp.weixin.qq.com/s/k3iXMZtdtzoP8ZuA5_Htww

3.如何使用Hugging Face 在2024年微调LLM

文章概述了一个从头到尾的LLM微调流程,包括定义用例、准备数据集、模型选择和微调、评估、部署等步骤。

重点介绍了Hugging Face的新库TRL,它简化了LLM的微调工作,支持各种训练优化技术。

展示了如何使用QLoRA等参数高效微调技术,在消费级GPU上就可以微调十几亿参数的模型。

使用OpenAI的CodeLLaMA-7B模型在文本到SQL任务上进行示例,并测试了微调模型的性能。

https://twitter.com/_philschmid/status/1749811106611388642?s=20

https://www.philschmid.de/fine-tune-llms-in-2024-with-trl

4.开源项目LLM领域知识助手

https://github.com/InternLM/HuixiangDou

5.Orion-14B 系列模型包括一个具有140亿参数的多语言基座大模型以及一系列相关的衍生模型,包括对话模型,长文本模型,量化模型,RAG微调模型,Agent微调模型等。

https://github.com/OrionStarAI/Orion

6.MM-LLMs:近期多模态大语言模型进展

文章综述了当前多模态大语言模型(MM-LLM)的最新进展。

从模型架构和训练流程两个方面介绍了MM-LLM的一般设计形式。

简要介绍了26种现有的MM-LLM模型,每种都有其特定的设计形式。

https://arxiv.org/abs/2401.13601v1