零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
3月,国内外模型公司动作频频。国产大模型独角兽“五小虎”之一零一万物也有诸多新动作。
3月,国内外模型公司动作频频。国产大模型独角兽“五小虎”之一零一万物也有诸多新动作。
ChatGPT的“PPlus版”终于来了!就在一众竞品争相推出企业版之际,OpenAI官方的ChatGPT企业版也来了,附带8大功能。最引人瞩目的,当属GPT-4不限量使用,而且生成速度是Plus版本的2倍。
Stability AI开年第一个大模型来了!名为Stable Code 3B,参数27亿,专为写代码而生。Stable Code 3B可理解处理18种不同的编程语言,上下文长度100K token。且它对硬件要求也不高,用MacBook Air等普通笔记本电脑也能离线运行。
无情戳穿“长上下文”大模型的虚标现象——英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长度的都有。但一番考验下来,在新指标“有效上下文”上缩水严重,能达到32K的都不多。新基准名为RULER,包含检索、多跳追踪、聚合、问答四大类共13项任务。RULER定义了“有效
OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。那么,这次更新具体都有哪些内容呢?
“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?”随着新晋大语言模型们的上下文窗口(Context Window)变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。
Panda自然语言处理的基础涉及到对词的表征。华盛顿大学计算机科学与工程教授 Noah Smith(史諾亞)近日在 arXiv 发布了一篇入门介绍论文,由浅入深通俗易懂地介绍了自然语言处理中对词的处理和表示方法。
1月29日,致力于为中国定制AI大模型的APUS与波形智能联合发布新一代中文创作大模型,并对APUS“萤火小说”产品进行了升级迭代,进一步解决了常见网文的“模型幻觉”痛点,如:小说情节链重复、可信度与流畅度不佳和人设崩塌上下文不一致等。
万万没想到。Meta 选择在周六日,发布了最新 AI 模型系列 ——Llama 4,这是其 Llama 家族的最新成员。该系列包括 Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth。
我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,