首页 > 参数

参数

  • 阿里巴巴即将开源国内规模最大的AI大模型,720亿参数

    11 月 9 日消息,阿里巴巴集团 CEO 吴泳铭今日在 2023 年世界互联网大会乌镇峰会上透露,阿里巴巴即将开源 720 亿参数大模型,这将是国内参数规模最大的开源大模型。查询获悉,阿里巴巴目前已经开源通义千问 140 亿参数模型 Qwen-14B 和 70 亿参数模型 Qwen-7B

  • 打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了

    1月30日报道,11月27日,算力龙头企业浪潮信息发布了完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模,这也是国内首个千亿参数、全面开源的大模型。浪潮信息源2.0大模型在数理逻辑、数学计算、代码生成能力方面大幅提升,

  • 爆火Sora参数规模仅30亿?谢赛宁等大佬技术分析来了

    就说Sora有多火吧。生成的视频上线一个、疯传一个。作者小哥新上传的效果,点赞很快破千。失败案例都让人看得上瘾。学术圈更炸开锅了,各路大佬纷纷开麦。纽约大学助理教授谢赛宁(ResNeXt的一作)直言,Sora将改写整个视频生成领域。

  • 报告:中国10亿级参数规模以上大模型已发布79个

    据中新网,5月28日,在北京举行的中关村论坛平行论坛“人工智能大模型发展论坛”上,中国科学技术信息研究所所长赵志耘发布了《中国人工智能大模型地图研究报告》。赵志耘解读称,中国大模型的各种技术路线都在并

  • 60亿参数AI模型测试:Intel2.4倍领先!唯一可替代NVIDIA

    快科技9月12日消息,MLCommons官方公布针对60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的 MLPerf推理v3.1的性能基准测试结果,Intel CPU处理器、AI加速器表现亮眼,在AI推理方面相当有竞争力。此前6月份披露的MLCommons AI训练结果、Hugging

  • Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

    预训练语言模型通常在其参数中编码大量信息,并且随着规模的增加,它们可以更准确地回忆和使用这些信息。对于主要将信息编码为线性矩阵变换权重的密集深度神经网络来说,参数大小的扩展直接与计算和能量需求的增加相关。语言模型需要学习的一个重要信息子集是简单关联。虽然前馈网络原则上(给定足够的规模)可以学习任何函