Gemini for Google Cloud 和 Responsible AI

本文档介绍了 Google Cloud 专用 Gemini 的设计初衷,是为了确保: 与生成式 AI 相关的能力、限制和风险。

大语言模型的功能和风险

大语言模型 (LLM) 可以执行许多实用任务,例如 以下:

  • 翻译语言。
  • 总结文本。
  • 生成代码和富有创意的写作内容。
  • 为聊天机器人和虚拟助理赋能。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力不断演变, 潜在的滥用和滥用情况,以及意想不到的或无法预料的后果。

LLM 可能会生成意料之外的输出,包括冒犯性文字, 麻木不仁或与事实不符的内容。由于 LLM 用途广泛, 要准确预测 它们可能产生的输出。

考虑到这些风险和复杂性,Google Cloud 专用 Gemini 的设计 Google 的 AI 原则 。不过,用户务必要了解 Gemini for Google Cloud 的一些限制��以便安全、负责任地使用。

Google Cloud 专用 Gemini 限制

使用 Gemini 时可能会遇到的一些限制 包括(但不限于)以下内容:

  • 边缘情况。边缘情况是指训练数据中没有充分代表的不常见、罕见或异常情况。这些情况可能会导致 Gemini 模型输出的限制,例如 过度自信、误解背景或不恰当的输出。

  • 模型幻觉、依据和事实。Gemini 模型可能缺乏对真实知识、物理属性或准确理解的依据和真实性。这一限制可能会导致 Google Cloud 专用 Gemini 可能 生成听起来看似合理但与事实不符的输出, 不相关、不当或无意义的内容。幻觉还可能包括 编造指向不存在且从未存在过的网页的链接。对于 请参阅 针对 Google Cloud 专用 Gemini 撰写更好的提示

  • 数据质量和调优。输入到 Gemini for Google Cloud 产品中的提示数据的质量、准确性和偏差可能会对其性能产生重大影响。如果用户输入的提示不准确或不正确,Gemini for Google Cloud 可能会返回不太理想的回答或错误回答。

  • 偏见放大。语言模型可能会无意中放大现有语言的 训练数据中的偏见,从而产生可能会进一步强化 某些群体的社会偏见和不平等的待遇。

  • 语言质量。而 Gemini for Google Cloud Google Cloud 可提供令人印象深刻的多语言功能, 大多数基准(包括所有 公平性评估)使用美式英语。

    语言模型为不同用户提供的服务质量可能会不一致。 例如,文本生成功能对某些方言或 因为它们在训练数据中的代表性不足。 对于非英语或英语,效果可能会更差 具有代表性较低的品种。

  • 公平性基准和子群组。Google 研究团队的公平性分析 Gemini 模型并不会详尽说明 潜在风险例如,我们关注性别、种族、民族和宗教轴线上的偏见,但仅对美式英语数据������型输出进行分析。

  • ������专业知识有限。Gemini 模型是根据 Google Cloud 技术训练的,但可能缺乏必需的知识深度,无法就高度专业化或技术主题提供准确、详细的响应,导致肤浅或不正确的信息。

    使用 Google Cloud 控制台中的 Gemini 窗格时,请注意以下事项: Gemini 无法感知情境,无法感知具体环境, 它无法回答“我上次创建虚拟机是什么时候?”

    在某些情况下,Google Cloud 专用 Gemini 会将特定的 将上下文片段传递给模型,以接收特定于上下文的 响应,例如,当您点击问题排查建议 按钮。

Gemini 安全和恶意过滤

已勾选 Gemini for Google Cloud 提示和回答 安全属性的完整列表(适用于每种用途) 这种情况。这些安全属性旨在滤除违反使用限制政策的内容。如果输出为 视为有害的,系统会屏蔽相应响应。

后续步骤