3140亿参数Grok-1推理加速3.8倍,PyTorch+HuggingFace版来了
马斯克说到做到开源Grok-1,开源社区一片狂喜。但基于Grok-1做改动or商用,都还有点难题:Grok-1使用Rust+JAX构建,对于习惯Python+PyTorch+HuggingFace等主流软件生态的用户上手门槛高。
马斯克说到做到开源Grok-1,开源社区一片狂喜。但基于Grok-1做改动or商用,都还有点难题:Grok-1使用Rust+JAX构建,对于习惯Python+PyTorch+HuggingFace等主流软件生态的用户上手门槛高。
11 月 9 日消息,阿里巴巴集团 CEO 吴泳铭今日在 2023 年世界互联网大会乌镇峰会上透露,阿里巴巴即将开源 720 亿参数大模型,这将是国内参数规模最大的开源大模型。查询获悉,阿里巴巴目前已经开源通义千问 140 亿参数模型 Qwen-14B 和 70 亿参数模型 Qwen-7B
腾讯拿出看家本领,来挤开源赛道,突然发布了市面上最大的开源MoE模型。Hunyuan-Large,3890亿总参数,520亿激活参数。跑分超过Llama 3.1 405B等开源旗舰,上下文长度支持也高出一档来到256k。
1月30日报道,11月27日,算力龙头企业浪潮信息发布了完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模,这也是国内首个千亿参数、全面开源的大模型。浪潮信息源2.0大模型在数理逻辑、数学计算、代码生成能力方面大幅提升,
据中新网,5月28日,在北京举行的中关村论坛平行论坛“人工智能大模型发展论坛”上,中国科学技术信息研究所所长赵志耘发布了《中国人工智能大模型地图研究报告》。赵志耘解读称,中国大模型的各种技术路线都在并
就说Sora有多火吧。生成的视频上线一个、疯传一个。作者小哥新上传的效果,点赞很快破千。失败案例都让人看得上瘾。学术圈更炸开锅了,各路大佬纷纷开麦。纽约大学助理教授谢赛宁(ResNeXt的一作)直言,Sora将改写整个视频生成领域。
图片来源:摄图网腾讯科技消息,近日,媒体报道称,亚马逊正在训练他的第二个大语言模型——内部代号为“Olympus”,很有可能在今年12月份上线。这一名为Olympus大语言模型规模达到2万亿(2000B)参数,超过GPT-4的参数规模(此前报道称GPT-4的参数约为1万亿)。亚马逊计划将“Olymp
在AI领域,微软公司一直以其独到的创新性和前瞻性而闻名。也正因此,它抢先在AI赛道嗅到商机,并极具预判性的投资了OpenAI,使其成为自己在AI赛道上的最强助力。不过,微软的野心不止于此。
封面新闻记者 欧阳宏宇围绕开源大模型打响的混战正演变为参数之争。12月1日,阿里云宣布开源通义千问720亿参数模型Qwen-72B,18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。至此,通义大模型共开源18亿、70亿、140亿、720亿参数的四款大语言模型,以及视觉理解、音频理解两
快科技9月12日消息,MLCommons官方公布针对60亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的 MLPerf推理v3.1的性能基准测试结果,Intel CPU处理器、AI加速器表现亮眼,在AI推理方面相当有竞争力。此前6月份披露的MLCommons AI训练结果、Hugging