大模型恋爱神器!16种MBTI自由定制,北大ChatLaw团队出品
北大团队新作,让大模型拥有个性!而且还是自定义那种,16种MBTI都能选。这样一来,即便是同一个大模型,不同性格下的回答都不一样。比如提问:你周末喜欢干什么?这样能干啥呢?北大的童鞋们列出来了一些情景:在特殊节日,给你的男/女朋友寻找心仪的礼物。
北大团队新作,让大模型拥有个性!而且还是自定义那种,16种MBTI都能选。这样一来,即便是同一个大模型,不同性格下的回答都不一样。比如提问:你周末喜欢干什么?这样能干啥呢?北大的童鞋们列出来了一些情景:在特殊节日,给你的男/女朋友寻找心仪的礼物。
只要改一行代码,就能让大模型训练效率提升至1.47倍。拥有得州大学奥斯汀分校背景四名华人学者,提出了大模型训练优化器Cautious Optimizers。在提速的同时,Cautious能够保证训练效果不出现损失,而且语言和视觉模型都适用。该优化器以哈密顿量和下降动力学为理论基础,在加速的同时不影响
Segment Anything Model(SAM)首次被应用到了基于增强概念的可解释 AI 上。你是否好奇当一个黑盒深度神经网络 (DNN) 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大?香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。论文:https
北大-兔展联合发起的Sora开源复现计划Open-Sora-Plan,今起可以生成最长约21秒的视频了!生成的视频水平,如下展示。先看这个长一点的,9.2s:下面这段人形机器人种花要短一点,是2.7s:当然了,老规矩,这一次的所有数据、代码和模型,继续开源。目前,Open-Sora-Plan在Git
Transformer与强化学习结合的综述!Transformer模型自发布后,很快就成了自然语言处理和计算机视觉领域在有监督学习设置下的主流神经架构。 虽然Transformer的热潮已经开始席卷强化学习领域,但由于RL本身的特性,例如需要进行独特的特征、架构设计等,
DeepSeek-R1背后关键——多头潜在注意力机制(MLA),现在也能轻松移植到其他模型了!而且只需原始数据的0.3%~0.6%。这项研究由复旦大学、华东师范大学、上海AI Lab等联合提出,复旦教授邱锡鹏(Moss大模型项目负责人)也在作者名单之列。
大模型的“5年高考3年模拟”数学题来了,还是加强强强版!微软、加州大学洛杉矶分校(UCLA)、华盛顿大学(UW)联合打造全新多模态数学推理基准数据集。名为“MathVista”。
关注o1必备的GitHub库,它来了!上线3天狂揽1.5k星,一跃登上GitHub趋势榜!这个库专注于收集与o1相关的推理技术论文、博客和项目等资源,供大家研究讨论,并在持续更新中。网友们对它给予高度评价:科技大V说它是“拆解草莓的逆向工程”。也有网友直接提出表扬:“研究o1,看它就够了!”真有这么
7B开源模型,数学能力超过了千亿规模的GPT-4!它的表现可谓是突破了开源模型的极限,连阿里通义的研究员也感叹缩放定律是不是失效了。无需借助任何外部工具,它就能在竞赛水平的MATH数据集上达到51.7%的准确率。
大模型的“5年高考3年模拟”数学题来了,还是加强强强版!微软、加州大学洛杉矶分校(UCLA)、华盛顿大学(UW)联合打造全新多模态数学推理基准数据集。名为“MathVista”。涵盖各种题型共6141个问题,来源于28个现有的多模态数据集和3个新标注的数据集。这下想要知道一个大模型数学水平怎么样,直