服务电话:400-326-6978

深圳市秦时月科技有限公司

                                          当前位置:秦时月科技 > 新闻资讯 >
                                          
                                          Qwen,永远不会缺席!百万上下文模型开源
                                          发表日期:2025-01-30 浏览次数:1951次 作者:乐天

                                          近日,Qwen2.5-1M模子启源。

                                          2个尺寸,7B & 14B。启源而且,并联合vllm,散成了稠密注重力体制,推理快度晋升3到7倍。

                                          技能讲述天址:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdfhf: https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba

                                          14B模子的年夜海捞针得到了齐绿的修养,7B仅少许缺点

                                          少度晋升的共时,欠序列的修养依旧坚持优秀!

                                          练习计谋: 逐渐变少到256K。 而后应用少度中推,中推用到了DCA的计谋,

                                          DCA经由过程将年夜的绝对地位,按chunk分组,映照为较小的值

                                          末了是硬件依靠:

                                          对处置 1M 少度的序列:

                                          Qwen2.5-7B-Instruct-1M:起码须要 120GB 隐存(多 GPU 总战)。Qwen2.5-14B-Instruct-1M:起码须要 320GB 隐存(多 GPU 总战)。

                                          即使 GPU 隐存生气脚以上央浼,依然能够应用 Qwen2.5-1M 停止较欠做事的处置。

                                          末了,祝年夜家献岁欢愉!