除了训练阶段之外,ai 系统的持续产生影响。这种运行影响与 llm 大小相关,按组成模型的参数数量(通常为数十亿或数万亿)分类。模型越大,影响越大。
例如,salesforce ai research 的xgen-7b llm 有 70 亿个参数,而 gpt-3 则有1750 亿个参数。较小的模型除了使用较少的资源进行训练外,在持续运行中也使用较少的计算。savarese 表示,在适当的情况下,这些小型模型可以提供最好的一切:降低成本、降低环境影响和提高性能。他补充说,在知识检索、技术支持和回答 银行数据 客户问题等某些任务上,它们通常与大型模型相当。
“并非所有模型都需要如此庞大,”salesforce 减排高级经理 boris gamazaychikov 表示。“您可以使用更小、更特定领域的模型完成工作,这是 salesforce 正在努力的一件大事。我们可以为 crm 用例创建一个高效、有效的模型。我们可以将您的数据分层放在最上面,而无需额外的培训,这会使事情变得更有效率。