【2023 應用心理學與實務研討會】AI 都不 AI 了 - 由 AI 生成到 AI 思維-生成式人工智慧相關法律問題初探(余啟民)
生成式人工智慧相關法律問題初探(余啟民-東吳大學法律學系副教授)
生成式 AI 簡介
聊天生成型預訓練變換模型 (Generative Pre-trained Transformer)
- Answer follow-up questions
- Admit its mistakes
- Challenge incorrect premises
- Reject inappropriate requests(把問題反過來,會得到原本得不到的答案)
AIGC (AI Generated Content) 的加速度,有望成為數位內容創新發展的新引擎:
- 深度學習模型不斷完善(優於人類的製造能力和知識水平,承擔訊息挖掘、素材調用、復刻編輯等基礎性機械勞動)
- 開放模式加速推動
- 大模型商業化的探索進展
ChatGPT & AIGC
既有功能(不牽涉到資訊安全問題的範疇):
- 自動客服
- 自然語言生成
- 自動摘要和翻譯
- 語言生成和文本寫作
衍生來說有許多應用場景可嘗試:
- 客戶服務
- 在線教育(可以彌補師資的不足,但需考慮內容的正確性)
- 醫療健康(無法替代醫師的望聞問切,僅是 assist 的角度)
- 金融服務(但大數據可能被用於定價陷阱,熟客報價高於新客)
- 零售業
AIGC 可以在媒體上有很好的應用,如數位化身、虛擬網紅等,各項傳統娛樂影音產業的內容產出都有非常靈活的應用。
人工智慧應用對現代社會的風險挑戰的 11 個倫理困境
- 經濟不平等與勞動力問題
- 對人類行為的影響
- 在預測性功能與判斷性上偏見歧視(AI 透明度)
- 誤傳和幾近擬真的偽造(DeepFake)
- 隱私保護和安全性(Safety and Security)
- 軍事與情報應用
- 機器人霸主(超強 AI)的出現與中止
- 人工智慧的人格化探討
- AI 也會犯錯
- AI 相關的法律規定與監管
- 假如有道德的 AI 是不可能存在?
Refer to: "Discovering and enacting the path to safe artificial general intelligence." (Open AI, 2020)
Trustworthy and Responsible AI
Trustworthy AI 可信賴的 AI(歐盟立法傾向此用語)
- AI Cybersecurity 本質在於 AI 的可信賴問題,其實涉及了倫理問題
- 可信賴本身可能就已經是一種誤導,人類為什麼要信賴 AI?(將負擔歸於人類)
- 此假設可能暗示 AI 已經人性化
- 也暗示一種可能不存在的可靠性水平
Responsible AI 負責任的 AI(美國 NIST 傾向此用語)
- 強調「責任」是人類的特質,並將「責任」拓展於機構及公共服務
- 負責任地開發 AI 創建結構和角色,而責任將使用落在系統設計者身上
- 始於設計 By Design
- 在程式開發設計時,就積極發現道德風險,並在開發系統與產品時減輕影響
目標也許是 Responsible and Trusted AI。
Microsoft Responsible AI 六大原則(負責任的 AI)
- Fairness 公平
- Reliability & Safety 可靠性及安全性 (hazard, unintentional - ISO 27001)
- Privacy & Security 隱私及安全 (threat, intentional - ISO 27001)
- Inclusiveness 包容
- Transparency 透明
- Accountability 負責
公共服務的應用發展與其監管背景與風險:
- 決策能力
- 管理效率
- 服務質量
- 溝通互動
- 組織監管
全球倡議應正視 AI 可能造成的風險、衝擊、社會與經濟影響等,且建議政府應在必要時介入。
- 侵犯智慧財產權
- 未標示資料出處-Microsoft Bing AI 會列出出處,確保著作權
- 所生成內容的著作權歸屬
- 資訊安全
- 數據缺乏合法的保存與使用
- 機敏資料外流
- 資安威脅
- 虛假訊息
- 假消息或惡意言論
- 偏見或不公正
- 內容合規
- 違反行政監管法規
- 生成內容違反法律或倫理道德
- 國家安全
- 幫助使用者收集影響國安的資訊
國際因應生成式 AI/ChatGPT 發展模式
- 禁止進入/暫時封鎖(中國、義大利)
- 審慎使用(美國、澳洲、歐盟)
- 歐盟預計 AI Act 會在六月通過人工智慧法案,提出 AI 技術風險
- 特定範疇使用(新加坡、英國)
- 新加坡在 2023 年的 OPG (Open Government Products)將 ChatGPT 整合到公務員使用的 Microsoft Word 系統
- 英國視為「多重監管沙盒,允許監管下創新」 "A pro-innovation Approach to AI regulation"
人工智慧法律趨勢光譜:
- 硬法型(歐盟人工智慧法草案) vs. 軟法型(美國聯邦 AI 應用監管指引)
- ChatGPT 是歐盟 AI Act 中定義的「高風險 AI」,需進行倫理審查
- 東京大學 2023 年五月份公告生成式 AI 使用準則
我國 AI 間裡發展規範策略與方法:
- 優先訂立:AI 法制、個資法制
- 個法先於總法
- 指引先於法律
- 行政先於產業
- 國科會 2023 年下半年推動「台灣 AI 行動計畫 2.0」,新增任務「回應人文社會議題」
數位治理(漸進式迎接)
- 自動化決策 & 始於設計 (GDPR)
- 考慮與檢測「自主」與「輔助」的分際
- 在設計時強調「承認錯誤 admit its mistakes」而非僅聲明 (disclaimer)
- 多元管道去鼓勵應用來促進包容性 (Inclusiveness)
- 政府資料開放時,需審慎評估風險層級
- 必須注意可能的市場壟斷現象 (Fairness)
- 教育對於 ChatGPT 的因應
- 需要進一步鼓勵共學模式,並多給予模型「蘇格拉底式對話訓練」
- 程式設計課程可能宜適度調整為共學模式
- 共學模式應強調「倫理準則」,以強調負責任 (Accountability)
未來不僅只是協作,對企業來說,應該是透過協作,才能「協利」。
Comments
Post a Comment