为解决 GPT-4 分析含个人数据报告的安全问题,研究人员评估多种大语言模型,发现 Llama 3.1 405B 与 GPT-4 相当,或为安全替代方案。 在医学领域,数据的高效处理和准确分析对临床研究和患者治疗至关重要。随着人工智能技术的发展,大语言模型(LLM)逐渐应用于 ...
同时,基于英特尔酷睿Ultra系列处理器打造的AI PC,可以说是性能体验最好、稳定性最好、兼容性最好的本地化AI部署平台。Ollama、Flowy、LM Studio、Miniforge等常用软件全部支持,并且支持Intel ...
IT之家 3 月 10 日消息,鸿海富士康宣布推出旗下首款 AI 推理大模型“FoxBrain”,同时号称是台湾地区首款 AI 推理大模型,涵盖数据分析、数学、推理和代码生成等一系列功能,未来还将进行开源。
全新华硕Ascent GX10的配备了先进的NVIDIA GB10超级芯片,该芯片采用Grace Blackwell架构设计,并针对紧凑型外形进行了优化。功能强大的GB10芯片包含一个强大的BlackwellGPU,支持第五代张量核心和FP4,可提供高达1000TOPS的AI处理能力。此外,它还配备了高性能的Grace ...
尽管参数量极大,过往对硬件要求也极高,远超过去业界对于移动计算设备本地推理能力的认知上限——笔记本电脑现在也可以顺利且轻松地运行数百亿参数量的大模型了。 AMD 这样做的目的,是确保基于大模型的企业级应用和科研能力,能够被普及到 x86 阵营的笔记本 ...
王鑫涛,复旦大学博士生,师从肖仰华、汪卫教授,致力于探索用AI创造具有人格的数字生命。研究方向聚焦大语言模型与Agent技术,在AI角色扮演领域发表多篇ACL/EMNLP论文,以及该领域首篇研究综述,总计引用量三百余次。他的研究寻求AI技术与人类情感 ...
机器之心报道,编辑:张倩、泽南。 给到额外的计算资源和「思考」时间,为什么有的模型能好好利用,把性能提升一大截,而有的模型就不行? 当遇到困难问题时,人类会花时间深入思考以找到解决方案。在 AI ...
最终,DeepSeek R1 在 M3 Ultra Mac Studio 表现不错。虽然这里用的是 4-bit 量化版本,牺牲了一定的精度,但模型依然保持了完整的 6710 亿参数,速度为 16-18 ...
RAG-Gym将知识密集型问答任务形式化为嵌套马尔可夫决策过程 ...
腾讯AI Lab与香港中文大学(深圳)合作开展了一项新研究,提出了这样一种名为 无监督前缀微调 (UPFT)的方法。 团队研究发现,关键的正确推理信号,全都藏在模型的“前几步”里,将这种现象称为“推理前序自一致性”。
(全球 TMT2025 年 3 月 11 日讯)鸿海研究院(Hon Hai Research Institute)宣布推出首个繁体中文大语言模型(LLM),在短短四周内完成更高效、更低成本的模型训练方法。 该研究所由鸿海科技集团(富士康)支持,它表示 ...
品玩3月10日讯,据市场消息,鸿海推出旗下首个大语言模型 FoxBrain。鸿海表示,将利用该模型优化其制造和供应链管理能力。 据鸿海表示,FoxBrain基于 Meta 的 Llama 3.1 ...