资讯

在测试的过程中,我们发现,在家用电脑上运行的本地LLM效果皆不好。由于内存和算力不足,表现良好的LLM不足以在家用电脑上运行。我们测试了诸如openchat,llama3.3, deepseek-r1等开源模型,在12代i7-12700KF+RTX4060+32G RAM上作答试题(若下文没有说明,则测试条件均 ...