TensorFlow 負責任的 AI 指南

Google 在 2018 年推出了AI 原則,以引導 AI 在研究和產品中的合乎道德的開發與使用。為了呼應這些原則,TensorFlow 團隊致力於為開發人員提供工具和技術,以遵循負責任的 AI (RAI) 實務做法。

在本指南中,您將找到關於如何應用負責任的 AI 工具組中的工具的指引,以開發連貫的工作流程,滿足您的特定使用案例和產品需求。本指南中的工具包括可用於公平性透明度等領域的工具。這是 Google 積極開發的領域,您可以期待本指南納入其他相關領域的指引,例如隱私權可解釋性穩健性

指南組織方式

針對每個工具,我們提供關於工具用途、在工作流程中的適用位置以及各種使用考量的指引。在適用情況下,每個工具的「指南」分頁都包含「安裝」頁面,「API」分頁則包含詳細的 API 文件。對於某些工具,我們提供技術指南,示範使用者在應用這些工具時可能會覺得具有挑戰性的概念。

在可能的情況下,我們會提供筆記本教學課程,展示如何應用 RAI 工具組中的工具。這些通常是為了突顯特定工具而選擇的玩具範例。如果您對這些範例有任何疑問,或是有其他您想看到的用例,請透過電子郵件聯絡 TensorFlow RAI 團隊:tf-responsible-ai@google.com

下列教學課程可協助您開始使用模型公平性評估和補救工具。

Google Colab 筆記本中執行的公平性指標簡介。按一下「在 Google Colab 中執行」按鈕親自試用。
應用公平性指標,使用 Civil Comments Dataset 評估 TF Hub 文字嵌入模型中常用的公平性指標。
應用公平性指標,檢查 COMPAS Dataset 中的公平性問題。
試用 MinDiff,這是一種模型補救技術,可提升常用公平性指標的模型效能。
將模型卡工具組與 TFX 搭配使用,以產生 模型卡
使用 TF Privacy Report 評估模型的隱私權。

其他考量

設計負責任的 AI 工作流程需要在 ML 生命週期的每個階段 (從問題擬定到部署和監控) 採取周全的方法。除了技術實作的細節之外,您還需要做出各種社會技術決策,才能應用這些工具。ML 從業人員需要考量的一些常見 RAI 事項包括:

  • 我需要在哪些人口統計類別中確保模型效能良好?
  • 如果我必須儲存敏感標籤才能執行公平性評估,我該如何考量公平性和隱私權之間的取捨?
  • 我應該使用哪些指標或定義來評估公平性?
  • 我應該在模型和資料透明度人工產物中納入哪些資訊?

這些問題和許多其他問題的答案取決於您的特定使用案例和產品需求。因此,我們無法明確告訴您該怎麼做,但會提供指引,協助您做出負責任的決策,並在可能的情況下提供實用秘訣和相關研究方法的連結。當您使用 TensorFlow 開發負責任的 AI 工作流程時,請在 tf-responsible-ai@google.com 提供意見回饋。瞭解您的學習成果和挑戰對於我們建構適用於所有人的產品至關重要。