%E5%A6%82%E4%BD%95%E6%9E%84%E5%BB%BA%E2%80%9C%E9%AB%98%E7%A1%AE%E5%AE%9A%E6%80%A7%E2%80%9D%E7%9A%84AI%E8%BE%93%E5%87%BA #22
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
%E5%A6%82%E4%BD%95%E6%9E%84%E5%BB%BA%E2%80%9C%E9%AB%98%E7%A1%AE%E5%AE%9A%E6%80%A7%E2%80%9D%E7%9A%84AI%E8%BE%93%E5%87%BA
从随机抽卡到工作场景 在当前的人工智能应用场景中,我们面临着一个困难:大型语言模型的本质是基于概率的随机生成器,而实际工作场景往往需要确定性的结果交付。我们将这种不确定性的交互戏称为抽卡,意指其结果的方差极高,依赖于运气的成分多于逻辑的控制。然而,在工程化的视角下,我们必须抑制这种随机性。 NOTE 如何通过工程化手段,将 AI 的输出方差降到最低,从而实现可复用的、高确定性的产出? 工业级的稳定交付并不追求模型在某一次对话中展现出的惊人创造力,而是追求在一百次调用中能够稳定输出一百次可用的结果。AI 的上限并不取决于模型本身,而取决于定义问题的清晰度。它是一面镜子,诚实地照出了提问者逻辑上的...
https://chenghui03.github.io/%E5%A6%82%E4%BD%95%E6%9E%84%E5%BB%BA%E2%80%9C%E9%AB%98%E7%A1%AE%E5%AE%9A%E6%80%A7%E2%80%9D%E7%9A%84AI%E8%BE%93%E5%87%BA
Beta Was this translation helpful? Give feedback.
All reactions