震惊!Claude伪对齐率竟能高达78%,Anthropic137页长论文自揭短
这下,大模型不能太过信任有「实锤」了。今天,大模型公司 Anthropic 的一篇 137 页长论文火了!该论文探讨了大语言模型中的「伪对齐」,通过一系列实验发现:Claude 在训练过程中经常假装有不同的观点,而实际上却保持了其原始偏好。
这下,大模型不能太过信任有「实锤」了。今天,大模型公司 Anthropic 的一篇 137 页长论文火了!该论文探讨了大语言模型中的「伪对齐」,通过一系列实验发现:Claude 在训练过程中经常假装有不同的观点,而实际上却保持了其原始偏好。
ChatGPT 的论文写作能力高过图灵,还骗过了 AI 写作评分工具。作者 | 李梅、黄楠编辑 | 陈彩娴以 ChatGPT 为代表的文本生成的兴起,正促使许多研究人员寻求一个比原始版本更具挑战性的图灵测试。图灵测试解决两个问题:“机器可以思考吗?”,如果可以,“如何证明它?”经典图灵测试针对的是
研究表明,你训练的 token 越多,你需要的精度就越高。最近几天,AI 社区都在讨论同一篇论文。UCSD 助理教授 Dan Fu 说它指明了大模型量化的方向。CMU 教授 Tim Dettmers 则直接说:它是很长一段时间以来最重要的一篇论文。OpenAI 创始成员、特斯拉前 AI 高级总监 A
文科本来已经日渐式微。但现在人工智能的出现更是令情况雪上加霜。技术与人文的鸿沟被越拉越大。情况本不应该这样。全球最大的企业苹果之所以有如今这样的成就,根本上还是因为它是一家人文科技公司。在自然语言处理侵蚀人文的当下,如何打破两种文化的隔阂?
12月10日,为期六天的全球AI顶级会议NeurlPS在美国路易斯安那州新奥尔良市举办。NeurlPS披露的数据显示,本届会议共有12343篇有效论文投稿,接收率仅为26.1%。蚂蚁集团20篇论文被收录。NeurIPS是全球人工智能和机器学习领域的顶级会议,与ICML并称为人工智能领域难度最大,
OpenAI又跑了一名大神!The Information消息,初代GPT论文第一作者Alec Radford也要离开OpenAI,转向独立研究。据了解, Alec于2016年加入OpenAI,从初代GPT到GPT-4o的论文中全都有他的名字,其中前两代还是第一作者。另外OpenAI的多模态模型CL
10月8~12日,医学图像分析领域国际公认的最具影响力的学术会议——MICCAI 2023在加拿大温哥华举办。医疗AI领军企业鹰瞳Airdoc共有8篇论文脱颖而出,被最终收录,其中1篇更是作为为数不多的口头报告(Oral)论文在大会展示,充分体现了公司在医疗人工智能领域全面而卓越的创新能力。MICC
本文旨在了解两种微调大型语言模型方法之间的差异:完全微调和低秩自适应 (LoRA)。这两种方法都用于将预训练模型适应特定的下游任务,但它们却有所不同。微调(Fine-tuning)是将经过预训练的大语言模型应用于下游任务的关键范例。最近,低秩自适应 (LoRA) 等方法已被证明可以在各种任务上达到完
上云、代码重构一起来。对于节奏越来越快的学术研究领域而言,arXiv 是非常重要的论文预印版平台。和维基百科一样,它是个非营利性机构。当地时间本周四,康奈尔大学科技校区(Cornell Tech)宣布了 arXiv 获得巨额捐款的好消息。作为一个非营利数据库,arXiv 是所有人均可以免费访问的,长
ICLR 2024接收结果揭晓!据统计,本届会议共收到了7262篇论文,整体接收率约为31%,与去年(31.8%)基本持平。其中Spotlight论文比例为5%,Oral论文比例为1.2%。会议将于今年5月7日-11日在奥地利维也纳会展中心举行。