【2023 應用心理學與實務研討會】AI 都不 AI 了 - 由 AI 生成到 AI 思維-生成式人工智慧相關法律問題初探(余啟民)

生成式人工智慧相關法律問題初探(余啟民-東吳大學法律學系副教授)

生成式 AI 簡介

聊天生成型預訓練變換模型 (Generative Pre-trained Transformer)

  • Answer follow-up questions
  • Admit its mistakes
  • Challenge incorrect premises
  • Reject inappropriate requests(把問題反過來,會得到原本得不到的答案)

AIGC (AI Generated Content) 的加速度,有望成為數位內容創新發展的新引擎:

  • 深度學習模型不斷完善(優於人類的製造能力和知識水平,承擔訊息挖掘、素材調用、復刻編輯等基礎性機械勞動)
  • 開放模式加速推動
  • 大模型商業化的探索進展

ChatGPT & AIGC

既有功能(不牽涉到資訊安全問題的範疇):

  • 自動客服
  • 自然語言生成
  • 自動摘要和翻譯
  • 語言生成和文本寫作

衍生來說有許多應用場景可嘗試:

  • 客戶服務
  • 在線教育(可以彌補師資的不足,但需考慮內容的正確性)
  • 醫療健康(無法替代醫師的望聞問切,僅是 assist 的角度)
  • 金融服務(但大數據可能被用於定價陷阱,熟客報價高於新客)
  • 零售業

AIGC 可以在媒體上有很好的應用,如數位化身、虛擬網紅等,各項傳統娛樂影音產業的內容產出都有非常靈活的應用。

人工智慧應用對現代社會的風險挑戰的 11 個倫理困境

  1. 經濟不平等與勞動力問題
  2. 對人類行為的影響
  3. 在預測性功能與判斷性上偏見歧視(AI 透明度)
  4. 誤傳和幾近擬真的偽造(DeepFake)
  5. 隱私保護和安全性(Safety and Security)
  6. 軍事與情報應用
  7. 機器人霸主(超強 AI)的出現與中止
  8. 人工智慧的人格化探討
  9. AI 也會犯錯
  10. AI 相關的法律規定與監管
  11. 假如有道德的 AI 是不可能存在?
Refer to: "Discovering and enacting the path to safe artificial general intelligence." (Open AI, 2020)

Trustworthy and Responsible AI 

Trustworthy AI 可信賴的 AI(歐盟立法傾向此用語)

  • AI Cybersecurity 本質在於 AI 的可信賴問題,其實涉及了倫理問題
  • 可信賴本身可能就已經是一種誤導,人類為什麼要信賴 AI?(將負擔歸於人類)
  • 此假設可能暗示 AI 已經人性化
  • 也暗示一種可能不存在的可靠性水平

Responsible AI 負責任的 AI(美國 NIST 傾向此用語)

  • 強調「責任」是人類的特質,並將「責任」拓展於機構及公共服務
  • 負責任地開發 AI 創建結構和角色,而責任將使用落在系統設計者身上
  • 始於設計 By Design
    • 在程式開發設計時,就積極發現道德風險,並在開發系統與產品時減輕影響

目標也許是 Responsible and Trusted AI。

Microsoft Responsible AI 六大原則(負責任的 AI)

  • Fairness 公平
  • Reliability & Safety 可靠性及安全性 (hazard, unintentional - ISO 27001)
  • Privacy & Security 隱私及安全 (threat, intentional - ISO 27001)
  • Inclusiveness 包容
  • Transparency 透明
  • Accountability 負責

公共服務的應用發展與其監管背景與風險:

  • 決策能力
  • 管理效率
  • 服務質量
  • 溝通互動
  • 組織監管

全球倡議應正視 AI 可能造成的風險、衝擊、社會與經濟影響等,且建議政府應在必要時介入。

  • 侵犯智慧財產權 
    • 未標示資料出處-Microsoft Bing AI 會列出出處,確保著作權
    • 所生成內容的著作權歸屬
  • 資訊安全
    • 數據缺乏合法的保存與使用
    • 機敏資料外流
    • 資安威脅
  • 虛假訊息
    • 假消息或惡意言論
    • 偏見或不公正
  • 內容合規
    • 違反行政監管法規
    • 生成內容違反法律或倫理道德
  • 國家安全
    • 幫助使用者收集影響國安的資訊

國際因應生成式 AI/ChatGPT 發展模式

  • 禁止進入/暫時封鎖(中國、義大利)
  • 審慎使用(美國、澳洲、歐盟)
    • 歐盟預計 AI Act 會在六月通過人工智慧法案,提出 AI 技術風險
  • 特定範疇使用(新加坡、英國)
    • 新加坡在 2023 年的 OPG (Open Government Products)將 ChatGPT 整合到公務員使用的 Microsoft Word 系統
    • 英國視為「多重監管沙盒,允許監管下創新」 "A pro-innovation Approach to AI regulation"

人工智慧法律趨勢光譜:

  • 硬法型(歐盟人工智慧法草案) vs. 軟法型(美國聯邦 AI 應用監管指引
  • ChatGPT 是歐盟 AI Act 中定義的「高風險 AI」,需進行倫理審查
  • 東京大學 2023 年五月份公告生成式 AI 使用準則

我國 AI 間裡發展規範策略與方法:

  • 優先訂立:AI 法制、個資法制
  • 個法先於總法
  • 指引先於法律
  • 行政先於產業
  • 國科會 2023 年下半年推動「台灣 AI 行動計畫 2.0」,新增任務「回應人文社會議題

數位治理(漸進式迎接)

  • 自動化決策 & 始於設計 (GDPR)
    • 考慮與檢測「自主」與「輔助」的分際
    • 在設計時強調「承認錯誤 admit its mistakes」而非僅聲明 (disclaimer)
  • 多元管道去鼓勵應用來促進包容性 (Inclusiveness)
    • 政府資料開放時,需審慎評估風險層級
    • 必須注意可能的市場壟斷現象 (Fairness)
  • 教育對於 ChatGPT 的因應
    • 需要進一步鼓勵共學模式,並多給予模型「蘇格拉底式對話訓練」
    • 程式設計課程可能宜適度調整為共學模式
    • 共學模式應強調「倫理準則」,以強調負責任 (Accountability)
未來不僅只是協作,對企業來說,應該是透過協作,才能「協利」。

Comments

Popular posts from this blog

ProductTank Taipei #12 - 大型組織的產品管理與協作

讀書筆記 - 李弘毅教授【生成式AI導論 2024】第1講:生成式AI是什麼?

ProductTank Taipei #5 - 當產品經理遇到資料科學家