论文翻译 | PROMPTING GPT-3 TO BE RELIABLE大型语言模型(LLMs)通过少量提示展现出了令人印象深刻的的能力。商业化的API,如OpenAI的GPT-3,进一步增加了它们在现实世界语言应用中的使用。然而,如何提高GPT-3的可靠性这一关键问题仍然尚未得到充分探索。虽然可靠性是一个广泛且定义模糊的术语,但我们将其分解为四个主要方面,这些方面与现有机器学习安全框架相对应,且被广泛认为是重要的:可泛化性、社会偏见、校准和事实性。我们的核心贡献是建立了简单有效的提示,以提高GPT-3的可靠性,具体表现为:1)在分布外进行泛化,2)平衡人口统计分布并使用自然