指南組織方式
API 文件與指引
針對每個工具,我們提供關於工具用途、在工作流程中的適用位置以及各種使用考量的指引。在適用情況下,每個工具的「指南」分頁都包含「安裝」頁面,「API」分頁則包含詳細的 API 文件。對於某些工具,我們提供技術指南,示範使用者在應用這些工具時可能會覺得具有挑戰性的概念。
教學課程
在可能的情況下,我們會提供筆記本教學課程,展示如何應用 RAI 工具組中的工具。這些通常是為了突顯特定工具而選擇的玩具範例。如果您對這些範例有任何疑問,或是有其他您想看到的用例,請透過電子郵件聯絡 TensorFlow RAI 團隊:tf-responsible-ai@google.com。
下列教學課程可協助您開始使用模型公平性評估和補救工具。
公平性指標簡介
Google Colab 筆記本中執行的公平性指標簡介。按一下「在 Google Colab 中執行」按鈕親自試用。搭配 TF Hub 文字嵌入的公平性指標
應用公平性指標,使用 Civil Comments Dataset 評估 TF Hub 文字嵌入模型中常用的公平性指標。公平性指標沿襲個案研究
應用公平性指標,檢查 COMPAS Dataset 中的公平性問題。搭配 Keras 使用 MinDiff
試用 MinDiff,這是一種模型補救技術,可提升常用公平性指標的模型效能。使用 TFX 產生模型卡
將模型卡工具組與 TFX 搭配使用,以產生 模型卡。產生隱私權報告
使用 TF Privacy Report 評估模型的隱私權。其他考量
設計負責任的 AI 工作流程需要在 ML 生命週期的每個階段 (從問題擬定到部署和監控) 採取周全的方法。除了技術實作的細節之外,您還需要做出各種社會技術決策,才能應用這些工具。ML 從業人員需要考量的一些常見 RAI 事項包括:
- 我需要在哪些人口統計類別中確保模型效能良好?
- 如果我必須儲存敏感標籤才能執行公平性評估,我該如何考量公平性和隱私權之間的取捨?
- 我應該使用哪些指標或定義來評估公平性?
- 我應該在模型和資料透明度人工產物中納入哪些資訊?
這些問題和許多其他問題的答案取決於您的特定使用案例和產品需求。因此,我們無法明確告訴您該怎麼做,但會提供指引,協助您做出負責任的決策,並在可能的情況下提供實用秘訣和相關研究方法的連結。當您使用 TensorFlow 開發負責任的 AI 工作流程時,請在 tf-responsible-ai@google.com 提供意見回饋。瞭解您的學習成果和挑戰對於我們建構適用於所有人的產品至關重要。