1 of 42

綜觀AI科技對學術研究與誠信的影響

柯皓仁

國立臺灣師範大學圖書資訊學研究所�教授兼學習資訊專業學院副院長

clavenke@ntnu.edu.tw

1

圖片來源:維基百科

2 of 42

內容大綱

  • 人工智慧(AI)是甚麼?
  • AI與學術誠信 – 用AI
  • AI與學術倫理 – 發展AI
  • 結論

2

3 of 42

人工智慧是甚麼?

3

4 of 42

人工智慧

  • 泛指普通電腦程式來呈現人類智慧的技術
    • 長期目標為建構能夠跟人類似甚至超卓的推理、知識、規劃、學習、交流、感知、移物、使用工具和操控機械的能力
  • 弱人工智慧
    • 「不可能」製造出能「真正」地推理和解決問題的智慧機器,這些機器只不過「看起來」像是智慧的,但是並不真正擁有智慧,也不會有自主意識
      • 影像辨識、語言分析、棋類遊戲
  • 強人工智慧
    • 「有可能」製造出「真正」能推理和解決問題的智慧機器,並且,這樣的機器將被認為是具有知覺、有自我意識的

4

參考文獻:人工智慧 (2023). In Wikipedia. Retrieved 2023/10/17.

5 of 42

人工智慧(續)

  • 人工智慧包括機器學習、神經網絡、計算機視覺、自然語言處理和機器人技術
    • 搜索和分析大量資料的機器學習技術
    • 旨在使用知識表示和推理解決複雜問題的專家系統
    • 處理可程式化機器的概念、設計、製造和操作的機器人技術
    • 能夠預測人類和機器行為並做出自主決策的演算法和自動決策系統
  • 根據其自主程度和智慧水準,可以將AI系統分為不同類別,從簡單的基於規則的系統到能夠學習並適應新情況的高級系統
  • 人工智慧系統被理解為能以類似智慧人類行為的方式,自動處理數據和資訊的能力,通常包括推理、學習、感知、預測、規劃或控制等方面

5

6 of 42

人工智慧的應用

  • AI技術的廣泛應用
    • 個人助手、醫療、交通運輸、警政、金融、高效管理能源和水消耗…
  • 就算在圖書館…
    • 人臉辨識:應用在出入館、借還書時。
    • 專家系統:用在館藏推薦,如使用者說出他的心情、看書目的、喜歡的作者等,便可自動推薦符合她心情、目的的館藏。
    • 運用使用者興趣、使用者借閱歷史、使用者人口統計資料(性別、年齡、職業等),以決策樹、關聯規則探勘、自動分群等技術,推薦館藏給使用者。
    • 內容索引與編目、檔案匹配、內容總結、文件相關

6

7 of 42

(生成式)AI的好處 – 學生

  • 課業學習
    • 文章重點整理
    • 完善知識體系
    • 提高學習成效
    • 提供多元觀點
  • 作業報告
    • 文章架構擬定
    • 文章改寫
    • 文章校對

7

8 of 42

(生成式)AI的好處 – 教師

  • 課前準備
    • 課綱設計
    • 教材準備
  • 教學現場導入
    • 討論文本生成
    • 統整結論
    • 人機討論
  • 建立多元評量方式
  • 精進評量品質

8

9 of 42

(生成式)AI的好處 – 學者

  • 起草/修改 電子郵件與回覆
  • 撰寫一流的研究人員簡歷
  • 簡化複雜主題
  • 文章重點摘要
  • 為獎助申請腦力激盪
  • 撰寫社交媒體貼文
  • 為您的研究提出類比
  • 訂正語法
  • 文章翻譯

9

10 of 42

10

11 of 42

運用(生成式)AI的注意事項

  • 檢核內容正確性
  • 不可靠的參考資料
  • 風險和法律問題
  • 謹守學術誠信
  • 訓練偏差
  • 注意資訊安全
  • 避免過度依賴

11

12 of 42

不要全盤接受

12

13 of 42

AI與學術誠信 – 用AI

13

14 of 42

學術誠信原則

  • 可靠性(Reliability):確保研究的品質,反映在設計、方法論、分析和資源的使用上
  • 誠實(Honesty):以透明、公平、充分和公正的方式發展、執行、審查、提報和傳播研究
  • 尊重(Respect):尊重同事、研究參與者、研究對象、社會、生態系統、文化遺產和環境
  • 問責(Accountability):對於研究從想法到出版、管理和組織,培訓、監督和指導,以及對其更廣泛的社會影響承擔責任

14

ALLEA (2023) The European Code of Conduct for Research Integrity – Revised Edition 2023.

Berlin. DOI 10.26356/ECOC

15 of 42

  • 誠實(Honesty) :誠實追求真理和知識
  • 信任(Trust) :培養互信、鼓勵交流想法,使所有人能夠發揮潛能
  • 公平(Fairness) :建立明確的標準、慣例和程序,體現公平公正
  • 尊重(Respect) :尊重多元意見和想法
  • 責任 (Responsibility) :提倡個人責任,面對不法行為時要有所行動
  • 勇氣(Courage) :勇敢面對壓力和逆境

15

16 of 42

AI與學術誠信

  • 作者端:使用諸如ChatGPT之類的應用程式來生成資料 並/或 編寫論文
  • 期刊出版社:使用AI進行文章的品質檢查,例如剽竊偵測

  • AI具有潛在的好處,但為了維護學術誠信,科學家和機構需要透明地使用AI工具

16

17 of 42

運用(生成式)AI機器翻譯的倫理問題

  • 抄襲 – 翻譯的隻字片語是哪來的?
  • 資料保密 – 餵資料先
  • 無偏見語言 – 文化差異和敏感度
  • 捏造資訊 – 似是而非

17

  • 基本能力還是很重要的
  • 不要仰賴AI進行原創、創見處的詮釋
  • AI訓練資料集的著作權歸屬

華樂斯學術期刊發表英文撰寫季刊,第五十七期,September 2023

18 of 42

好的研究實務�Good Research Practices

  • 2.3 研究程序 (Research Procedures)
    • 研究人員以符合該學科的公認標準,有助於驗證或複製的方式,報告他們的研究結果和方法,包括外部服務、人工智慧和自動化工具的使用(Researchers report their results and methods, including the use of external services or AI and automated tools, in a way that is compatible with the accepted norms of the discipline and facilitates verification or replication, where applicable)
  • 2.8 審查和評估 (Review and Assessment)
    • 研究人員、研究機構和組織以透明和可證明的方式審查和評估提交的出版物、資助、任命、晉升或獎勵,並披露使用人工智慧和自動化工具的情況

18

ALLEA (2023) The European Code of Conduct for Research Integrity – Revised Edition 2023.

Berlin. DOI 10.26356/ECOC

19 of 42

違反研究誠信�Violations of Research Integrity

  • 3.1 研究不端行為和其他不可接受的實務
    • 隱瞞在創建內容或起草出版物時使用人工智慧或自動化工具

19

20 of 42

20

偵測原理:Writing Style

21 of 42

《Science》對人工智慧的聲明

  • 在《Science》期刊發表的論文中,不得使用AI、機器學習或類似的算法工具生成的文本,除非經編輯明確許可。此外,論文中的圖表、圖像或圖形也不得來自這些工具,同樣需要編輯的明確許可。此政策也規定,AI程序本身不得作為《Science》期刊論文的作者。違反此政策將視為科學不端行為。

21

22 of 42

《 Nature 》 對人工智慧的聲明

  • 任何語言模型(LLM)工具將不被接受為研究論文的正式作者。這是因為對作者身份的歸因意味著對工作的負責,而人工智慧工具無法承擔這種責任
  • 使用LLM的作者應該在論文的方法或致謝記錄此使用情況。如果一篇論文未包含這些部分,則可以記錄在引言或其他適當的部分

22

23 of 42

AI與研究倫理 – 發展AI

23

24 of 42

  • 進行學術研究時必須遵守的行為規範,亦是用來評估研究者從事研究的各項行為是否符合社會規範的原則
    • 抄襲、洩漏隱私、不實論文作者掛名、代寫論文、引用不實數據、扭曲研究結果、未經同意採取檢體、刻意將論文鎖住不公開讓人閱覽、藉由審查論文/計劃書之便剽竊對方構想
  • 研究倫理為何受到重視?
    • 來自人權與婦女等運動對於人性價值的反思
    • 為防止違反倫理,惡名昭彰的研究案例再度發生
      • 納粹醫學實驗等

24

25 of 42

  • 傷害最小化 (無害性)
  • 知情同意 (資格能力、志願性、資訊完全、理解)
  • 隱私與保密
  • 避免欺騙
  • 避免雙重關係及利益衝突

25

26 of 42

人工智慧與機器人倫理的主要爭點

  • 隱私與監視
  • 行為操控
  • AI系統的不透明性
  • 決策系統中的偏見
  • 自動化與就業 (automation and employment)
  • 自主系統(autonomous systems)
  • 機器倫理(machine ethics)
  • 人造道德代理程序(artificial moral agents)
  • 奇異點(singularity)

26

27 of 42

隱私與監視�Privacy & Surveillance

  • 對於隱私資料、可辨別個人身份資料的取用
  • 感應技術產生更多有關個人生活的非數位化資料
  • 人工智慧增加了智慧數據收集和數據分析的可能性
  • 照片與影片中的人臉識別,進而蒐集或搜尋個人資料
  • 設備指紋(Device Fingerprinting)、數位蹤跡
  • 電腦/系統比我們更瞭解自己
  • 人工智慧搭配與物聯網、智慧城市、智慧治理所衍生的數據收集議題

27

28 of 42

行為操控�Manipulation of Behavior

  • 人工智慧時代的利用數據引導、操縱、欺騙個人或群體
  • 從商品、遊戲的廣告、行銷到政治操作
  • DeepFake圖片到文本
  • 人工智慧中的機器學習技術依賴於大量的資料培訓。這意味著通常會在隱私和資料權利與產品技術品質之間存在權衡
    • TO BE OR NOT TO BE
    • EITHER…OR…

28

29 of 42

AI系統的不透明性�Opacity of AI Systems

  • 不透明和偏見是資料倫理的核心議題
  • 用於自動決策支援和預測分析的人工智慧系統引發了關於法律正當程序、問責、社區參與和稽核不足的重大擔憂
  • 受影響的人通常無法知道系統是如何產生這個結果的,也就是說,對於這個人來說,系統是不透明的。如果系統涉及機器學習,即使是專家也通常無法知道特定模式是如何被識別的,甚至不知道模式是什麼

29

30 of 42

決策系統中的偏見�Bias in Decision Systems

  • 商業、醫療保健和其他領域的決策與預測分析
    • 餐廳的喜好、醫療診斷、信用卡核卡、保釋…
  • 這些系統可能延續了已經存在於用於建立系統的數據中的偏見
    • 歧視婦女、歧視黑人
  • 用來訓練的資料集是否有偏差?
    • 如果資料集有太多白人男性的相片…

30

31 of 42

使用人工智慧的倫理原則

  • 不造成傷害(Do not harm)
  • 定義目的、必要性和適當性(Defined purpose, necessity and proportionality)
  • 安全和保密(Safe and security)
  • 公平和非歧視(Fairness and non-discrimination)
  • 永續性(sustainability)
  • 隱私權、數據保護和數據管理(Right to privacy, data protection, and data governance)
  • 人類自主權和監督(Human autonomy and oversight)
  • 透明度和可解釋性(Transparency and explainability)
  • 責任和問責(Responsibility and accountability)
  • 參與和包容(Inclusion and participation)

31

32 of 42

人工智慧的關鍵倫理要求

  • 人類代理機制與監管
  • 技術的穩固性與安全性
  • 隱私與數據保護
  • 透明度
  • 多樣性、非歧視與公平性
  • 社會與環境的福祉
  • 問責

32

以人為中心�(Human Centric)

33 of 42

人類代理機制與監管�Human Agency and Oversight

  • 尊重人類自主權和基本權利
    • 開方AI系統前應進行基本權利影響評估。之後應建立檢核機制,並允許回饋反饋
    • 使用者應能夠滿意地理解AI系統並與之互動。使用者的權利不應受到僅基於自動處理的決策的影響
    • 機器無法完全控制,因此,應總是需要人類監督。人們應始終具有最終推翻系統決策的可能性

33

34 of 42

技術的穩固性和安全性�Technical Robustness and Safety

  • 擁有安全、可靠、和穩健的系統和軟體,能夠應對AI系統整個生命週期中出現的錯誤或不一致性
    • 確保網路安全(cybersecurity):漏洞、網路攻擊、駭客入侵
    • AI開發人員應建立能夠評估安全風險的流程,以防有人將他們正在構建的AI系統用於有害目的
      • 人類控制接管並中止系統繼續運作

34

35 of 42

隱私和數據保護�Privacy and Data Protection

  • AI利害相關者必須遵守《一般數據保護規則》(GDPR)
  • 在構建和運行AI系統時確保隱私和個人數據受到保護
  • 公民應對自己的數據擁有完全控制權,他們的數據不應用於傷害或歧視他們
  • AI開發人員應應用設計技術,如數據加密和數據匿名化。此外,他們應確保數據的品質,即避免社會構建的偏見、不準確、錯誤和失誤。
    • 數據收集不應有偏見,AI開發人員應建立監督機制來控制數據集的品質

35

36 of 42

透明度�Transparency

  • 透明度對確保AI不偏見至關重要
  • 用於構建AI系統的資料集和過程應該被記錄和追蹤
  • AI系統應該被識別為AI系統,人們需要知道他們正在與AI系統互動… 尤其是一個攸關個人權益、基本自由、服務、福利的決定…
  • AI系統和相關的人類決策應受到可解釋性原則的約束,根據該原則,人類應該能夠理解和追溯AI系統的決策

36

37 of 42

多樣性、非歧視和公平性�Diversity, Non-Discrimination, and Fairness

  • 設計AI產品和服務時要避免不公平偏見
  • AI開發人員應確保他們的演算法設計不帶偏見(例如,不使用不恰當的資料集)
  • 可能會直接或間接受到AI系統影響的利害相關者應被諮詢並參與其開發和實施
  • 應考慮人類的所有能力、技能和需求,確保身心障礙人士能夠取用AI系統

37

38 of 42

社會和環境的福祉�Societal and Environment Well-being

  • 應該使用AI系統來促進積極的社會變革,鼓勵AI系統的永續性和環保責任
  • 鼓勵採取措施來確保AI系統對環境友好(例如,選擇較少有害的能源消耗方法),並應監控和考慮這些系統對社會和民主的影響(包括選舉情境下的影響)

38

39 of 42

問責�Accountability

  • 應建立機制來確保AI系統及其結果的責任和問責性
  • 應設立內部和外部獨立審計,特別是對於使用影響基本權利的AI系統
  • 應提供AI系統的負面影響報告,並應使用影響評估工具
  • 在實施關鍵道德要求之間可能產生衝突的情況下,應持續評估(傾向道德要求的)權衡決策
  • 應實施可執行的救濟機制

39

40 of 42

結論

40

41 of 42

結論

  • 用AI – 自己還是要有基礎能力,才能有效運用AI
  • 發展AI – 人工智慧領域的希波克拉底誓言
  • AI的可解釋性、可理解性、透明性至關重要

41

42 of 42

42

Thank you for Listening

ChatGPT協助部分翻譯工作