【2023 應用心理學與實務研討會】AI 都不 AI 了 - 由 AI 生成到 AI 思維-ChatGPT 的解析與挑戰(陳縕儂)

ChatGPT 的解析與挑戰(陳縕儂-台灣大學資訊工程學系副教授)

陳縕儂用了一張 Midjourney 的生成圖做為開場,形塑出一位潮流女孩的工作環境,除了自己的電腦和周邊鍵盤外,螢幕上投映著「ChatGPT」的大字,試圖描繪出未來大家的工作想像圖 - 除了自己的工作內容之外,ChatGPT 可能常伴左右在協助各種任務。

AI & ML

首先定義 AI 這個字,我們現在看到的生成式 AI,是偏向 Synthesizing 的類型。而達成 AI 的方法有很多種,Machine learning (ML) 就是其中一種手段,並非所有的 AI 都需要應用 Machine learning,只是近期最熱門的 AI 是透過 ML 達成的 AI。

大家最常看到的 LINE 聊天機器人,其實內部沒有什麼 ML,只是確實是有很多模組的 AI。

Machine Learning 的訓練,陳縕儂用了一些例子:Looking for a Function

    Task: predicting positive or negative given a product review

套用一些規則,讓機器自己去學習,把「輸入」變成「輸出」,Given a large amount of data, the machine learns what to output (後半句沒看清楚)。

「在訓練機器學習之前,首先需要有人工學習(工人智慧)」,需要提供非常大量的資料和資訊才能讓機器去運算出預期中的輸出 f(x)。

人類的學習能力金字塔,知識建構,是從低階知識到高階知識(請想像底下是一個金字塔,有底層的 Low-order thinking skills 到高階的知識)

Learning Pyramid (Bloom's Taxonomy, 2001)

  • Create (Use information to create some thing new)
  • Evaluate (Examine information and make judgments)
  • Analyze (Take apart the known and identify relationships)
  • Apply (Use information in a new but similiar situation)
  • Understand (Grasp meaning of instructional materials)
  • Remember (Recall specific facts)

隨著工具的發展,人類知識並不一定要透過土法煉鋼(逐本書查詢資料,也許還親自到圖書館查,從海量資料中人工搜尋),但隨著工具的發展,人類擁有了 Search Engines for Information Seeking,知識的起點逐漸有了差異,

When we don't know what to search → Information Seeking vs. Brainstorming 

搜尋引擎的世代,知識從「圖書館」中被快速找出,生成式 AI 的時代,當知識並不直接存在「圖書館」裡時,AI 會從既有的「圖書館」中的資料,「生成」與 Brainstorming 出「過去可能未被創造的知識」,當然就不保證正確性,需要經過驗證和反覆修訂。

台灣的教育體系,讓學生很會 close-book 的考試,但不一定很會分析並產出「思慮過後的知識」,在未來的領域會需要很加強「分析」能力的訓練。

GPT: Generative Pretrained Transformer (Radford et al., 2018) 從 2018 年開始訓練:

  • Pre-trained on BooksCorpus (~7000 books; 5GB) 匯入大量的圖書資料,要求 GPT 去做文字接龍,

隔年 2019 即推出第二代 GPT-2 明顯可以看到 Parameters, Pre-trained data 都顯著增加 (Parameters 1.5B、Pre-trained data 40GB),接著 GPT-3 Parameters 已經擴充到 175B,Pre-trained data 也到達 45TB。

目前 OpenAI 尚未公告 2023 年推出的 GPT-4 的相關數據。

過去使用時都是把 model 下載下來 local 跑,但現在發展得太大了,已經沒辦法下載下來使用,因此 GPT-3 出現 Prompting 這個使用方法,需要定義好題目,最後才有辦法產出 prmopt。

If GPT-3 cannot answer my questions well? 

AI Objectives 現行是接龍的模型,被定義出幾個原則:

  • Helpful - help the user solve their task
    • Cons: Unable to follow the user's instructions
  • Honest - shouldn't fabricate information or mislead the user
    • Cons: Hallucinations: output that cannot be verified from the source content(ChatGPT 有時候會講出並不存在的「資訊」,算是自行腦補完成的資訊,但可能會是錯誤的)
  • Harmless - 不可以傷害人類(機器人三大法則),例如提供讓人類傷害彼此的資訊
    • Cons: Not easy to detect/identify

剛找了篇文章,也許可以參考:ChatGPT Gets a 'Helpful, Honest, and Harmless' AI Rival Called Claude

為了改善上述狀況,InstructGPT = GPT 3.5 (Ouyang et al., 2022) → fine-tuning GPT-3 但需要大量的人工和資料,因此有此模型:

Reinforcement Learning from Human Feedback (RLHF)

  • Step 1: Supervised fine-tuning via collected demonstration
  • Step 2: Training a teacher (a human-labeled ranking → 訓練一個評分模型來做這件事情 reward model training
  • Step 3: Improving GPT via teacher's feedback (Alpha Go 的最主要技術,互相 training,逐漸逼近預期中的 output 結果)

產出結果確實有提升 Attempts correct instruction, Follows explicit constraints 的成果,Hallucinations 也有下降,但因為是與 human-labeled model 互相 training 的結果,腦補程度還是有所差異(有創造力,可能就會錯誤腦補)。

最終把衍生概念都導入,就變成 ChatGPT (2022)。

  • Step 1: Supervised fine-tuning
  • Step 2: Training with a teacher 
  • Step 3: Improving GPT via teacher's feedback (Generation update via 

在互動性上,ChatGPT 對人的 response 能力比較高,因此比較能進行自然對話,適合使用的廠景包含:

  • General Suggestions(適合開放式問題),但需要注意對人的「社交影響、情感影響、認知影響」。
  • Text Reswiting / Polishing(適合文字編修能力,但人類最終要自行檢視產出內文的品質)

也是會有一些 limitation 的狀況:

  • Training Data Bias 很容易受到訓練資料的影響,例如,對於三大 AI 領域公司的推薦排序,保留 Microsoft, Google(資料為真),但自行把 Meta 更換成 OpenAI(依據 Open AI 的訓練資料所產出的結果)。
  • Outdated Information 無法即時查找資訊,僅會使用封閉的訓練資料。但近期已經有一些方法要求 ChatGPT 去查找資料,作最新的分析,但不一定內容正確。
  • Incorrect Knowledge 

Microsoft New Bing, Google latest release Browser 也都做了生成式 AI 的整合,由於是透過 search engine 的資料,因此資料會是較新也是較容易做事實查核的應用。

有人說 ChatGPT 比較有趣,但微軟有回應提到「目標不同,追求正確性和生產力,而不是有趣互動性」。Microsoft 和 Google 

What Next Generation Should Learn:

  • Skills of better utilizing AI tools
  • Skills of checking information correctness
  • Strong domain knowledge 需要是各領域的人學習使用此工具,而非 AI 的人去學習各領域
  • Focus more on core concepts instead of details 

Challenge Summary

  • AI is currently used in many fields and ubiquitous in our daily life.
  • Conversational AI is the most advanced interface to communicate with.
  • How to utilize AI power in different professional domains is important.
  • Balancing personalization and privacy is challenging.
  • Data quality and quantity are essential.
  • Current technologies still have several unsolved limitations. 

Let AI help you, instead of replacing you.

一些小小的個人感想:

我在新聞上看過陳縕儂的相關報導,當時是注意到她從 CMU 這個 HCI 的最高學府碩博士畢業;印象中的新聞標題,以台灣媒體的習性大抵是「美女學霸放棄微軟高薪職位回台任教職」這種標題,當時也就是飄過去,並沒有多加關注,海歸派天天都有,未來的發展,很難說。

直到今天,很驚喜發現,陳縕儂在台灣真的深耕了,在台灣致力於產業界的 AI 推廣,協助企業導入 AI,更在台大資訊工程學系作育英才,將自己的所學傳播給台灣的莘莘學子,包含對話系統、語言理解以及深度學習等,作為一個台灣軟體界的人來說,真的非常感謝她對台灣學界和業界的付出和投入,這是台灣最需要的。

Comments

Popular posts from this blog

ProductTank Taipei #12 - 大型組織的產品管理與協作

【2023 應用心理學與實務研討會】AI 都不 AI 了 - 由 AI 生成到 AI 思維-生成藝術的創意空間(李怡志)