谷歌全新大模型突然发布!百万上下文,仅靠提示学会新语言
谷歌下一代大模型,无预警降临。Gemini 1.5,除了性能显著增强,还在长上下文理解方面取得突破,甚至能仅靠提示词学会一门训练数据中没有的新语言。此时距离去年12月Gemini 1.0发布,还不到3个月。
谷歌下一代大模型,无预警降临。Gemini 1.5,除了性能显著增强,还在长上下文理解方面取得突破,甚至能仅靠提示词学会一门训练数据中没有的新语言。此时距离去年12月Gemini 1.0发布,还不到3个月。
今天凌晨,OpenAI 的新系列模型 GPT-4.1 如约而至。该系列包含了三个模型,分别是 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano,它们仅通过 API 调用,并已向所有开发者开放。
EMNLP顶会落下帷幕,各种奖项悉数颁出。最佳长论文奖被北大微信AI团队收入囊中,由北大孙栩老师和微信周杰、孟凡东合作指导。他们发现了大模型中关键能力——上下文学习背后的工作机制。通过理解这一机制,还提出一系列方法来提高其性能。
就在刚刚,马斯克Grok大模型宣布重大升级。难怪之前突然开源了Grok-1,因为他有更强的Grok-1.5了,主打推理能力。来自xAI的官方推送啥也没说,直接甩链接。
现在,代码补全大模型领域又迎来一位「生力军」。近日,开源了文生图神器 Stable Diffusion 的 Stability Al 又发布了新的大模型 ——StableCode,其首个用于编码的生成式 AI 大模型。Stability Al 对它的描述是「革命性的」。据介绍,StableCode
谷歌下一代大模型,无预警降临。Gemini 1.5,除了性能显著增强,还在长上下文理解方面取得突破,甚至能仅靠提示词学会一门训练数据中没有的新语言。此时距离去年12月Gemini 1.0发布,还不到3个月。
各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。AI真的能从几十万字中找到特定关键事实吗?颜色越红代表AI犯的错越多。
谷歌最强大模型Gemini 1.5 Pro今天起,“全面”对外开放。目前完全免费,开发者可以通过API调用的方式使用,普通玩家也可以在谷歌AI Studio中直接体验。
搜狗创始人、百川智能创始人兼CEO 王小川国内大模型技术竞争加速,继讯飞星火、智谱推出最新产品之后,百川也迎来了新的大模型成果。钛媒体获悉,10月30日上午,王小川创立的 AI 大模型公司“百川智能”宣布,推出Baichuan2-192K大模型,其上下文窗口长度高达192K,能够处理约35万个汉字。
今日GitHub热榜榜首,是最新的开源世界模型。上下文窗口长度达到了100万token,持平了谷歌同时推出的王炸Gemini 1.5,伯克利出品。强大的模型,命名也是简单粗暴——没有任何额外点缀,直接就叫LargeWorldModel(LWM)。