General / 一般論文
Curriculum and instruction / 課程與教學
Book Review / 書評
A Review of “Teaching with AI: A Practical Guide to a New Era of Human Learning” / 與AI共教—評介《以人工智慧輔助教學: 邁向人類學習新紀元的實用指南》
Ph.D. Student, Graduate Institute of Education, National Changhua University of Education / 國立彰化師範大學教育研究所博士生
Language: Chinese
Page: 269-279

Cite this article: Cheng, J.-S. (2025). A Review of “Teaching with AI: A Practical Guide to a New Era of Human Learning”. Bulletin of Educational Research, 71(2), 269-279. https://doi.org/10.6910/BER.202506_71(2).0004

 

※Machine translation results are for reference only; please refer to the original text for accuracy. 機器翻譯結果僅供參考;準確性請以原文為準。

壹、前言

  人工智慧(Artificial Intelligence, AI)的快速發展,正以前所未有的方式衝擊著教育領域。從1950年代的理論研究起步,到近年深度學習(Deep Learning,DL)與大型語言模型(Large Language Models, LLM)的崛起,AI正在重塑人類獲取知識的方式。2022年11月,當OpenAI公司推出ChatGPT時,短短五天內便吸引了超過百萬人註冊;兩個月後,每日活躍用戶已突破一億。這股風潮讓各界措手不及,教育界更是深受影響,質疑與焦慮接踵而來:我們真的準備好了嗎?

 

  然而,當前的問題已不再是「是否使用AI?」,而是「如何善用AI使其真正具備教育價值?」。AI確實提升了學習與教學的效率,卻也可能導致學生過度依賴,進而削弱獨立思考的能力。當AI能夠快速提供答案時,我們是否仍然清楚:學生真正需要學習的是什麼?該重視的是學生善用AI的技能,還是思辨能力?教育的核心價值將在這場AI革命中被重新定義,這場變革也讓高等教育的價值受到前所未有的挑戰。根據蓋洛普(Gallup)民意調查,公眾對大學教育的信任度逐年下滑,甚至連畢業生本身也開始質疑學歷的意義(Brenan, 2023)。當AI讓資訊、甚至知識變得觸手可及,學校的角色究竟會式微,還是更加關鍵?AI可能帶來學習的普及化,卻也可能加深教育資源的不平等。這場科技革命究竟是帶來知識的解放,還是新的門檻?


  在這樣的時代背景下,《以人工智慧輔助教學:邁向人類學習新紀元的實用指南》(Teaching with AI: A Practical Guide to a New Era of Human Learning)(以下簡稱「本書」)為我們提供了一個不同的討論視角。本書於2024年4月30日出版,由C. E. Watson和J. A. Bowen兩位博士共同撰寫,兩位作者皆長期關注科技與學習的交互影響。Watson博士現任美國學院與大學協會(American Associationof Colleges and Universities, AAC&U)數位創新副總裁,長期關注數位科技如何影響學習成效,並推動數位平等與AI教學素養的發展;在擔任美國喬治亞大學(University of Georgia)教學中心主任期間,他致力於幫助教師提升專業發展,並積極研究AI在課堂中的應用,以協助教育者迎接技術帶來的挑戰。Bowen博士則是一位資深的高等教育領導者,曾任教於史丹佛大學(Stanford University)、邁阿密大學(Miami University)與古徹學院(Goucher College),積極推動教育創新與學術改革,以「裸教學」(Teaching Naked)理念聞名,主張減少對科技的過度依賴,讓師生之間建立更真實的互動。然而,當AI成為無法忽視的存在,Bowen博士開始思考,如何在這場技術浪潮中維持教育的人文核心,「AI不會取代教師,但會改變我們的教學方式」。這正是當前教育界所面臨的關鍵問題:當AI進入教室,教師的角色應該如何轉變?


  本書不僅提供具體的教學策略,更試圖回答一個核心問題:在AI與人類共存的時代,學習的真正價值是什麼?我們應該如何培養具備批判性思維、創造力與人文素養的學習者?這些問題沒有絕對的答案,但本書提醒我們:這不僅是一場技術革命,更是一次重新思考教育本質的機會。


貳、本書主題與各章概述

  本書包含三項主題,每項主題各有四章,共12章。第一項主題〈與AI一起思考〉回顧了AI的發展歷程,並探討AI在各個領域的應用,強調AI並非取代人類,而是強化人類的創造力;第二項主題〈與AI一起教學〉聚焦於AI在教學中的實際應用,討論AI如何協助教師改進教學、應對AI作弊問題,以及如何重新設計課程與評分標準;第三項主題〈與AI一起學習〉則探討AI在作業設計和評量中的應用,介紹AI如何客製化學習體驗、調整作業設計,幫助學生發展批判性思維、創造力及道德決策能力。
 

一、與AI一起思考

  主題一〈與AI一起思考〉從技術基礎切入,帶領讀者理解AI如何演變至今。第一章〈AI的基礎〉回顧了AI的演進歷程,從專家系統(expert systems)到機器學習(Machine Learning, ML)、再到DL的突破;AI在語言處理和數據分析領域取得了顯著的進展,尤其是LLM的發展,推動了生成式預先訓練轉換器(Generative Pre-trained Transformer, GPT)等技術在文本生成、翻譯和對話等自然語言處理任務的應用。然而,隨著技術演進,偏見與幻覺問題逐漸浮現,AI從帶有偏差的數據中學習,可能複製、甚至放大歧視性結果;幻覺則來自生成式模型創造內容時易產生錯誤或虛假資訊的特性。這些問題揭示AI在模仿人類思維機制時的侷限,並凸顯了技術應用過程中的風險,未來須在創新與可信性間謹慎權衡。

 

  第二章〈工作的新時代〉則將視野轉向AI對人類職場的影響,強調AI將改變每一種工作方式,與AI協作將成為未來工作的核心。AI不僅能協助決策與創作,甚至能模擬人際互動中的情感反應,改善人際關係與互動,成為比人類更專注的傾聽者。雖然AI能成為情感交流的有力輔助,卻也引發了對真實情感與倫理的質疑。隨著AI逐漸成為許多職業的核心工具,未來能夠有效運用AI的人將在職場中占據領先地位。因此,教育不應僅聚焦於教授可被AI取代的技能,而該培養學生在與AI合作過程中的批判性思維、情感辨識和倫理判斷能力,幫助他們理解哪些人類價值是AI無法取代的。
 

  在此基礎上,第三章〈AI素養〉進一步指出,AI素養(AI literacy)應該成為學生的基本能力之一。為了具備AI素養,學生需要學習如何選擇合適的工
具、設計有效的AI提示、理解AI產生「幻覺」的原因與風險,並重視反覆迭代(iteration)。與AI一起思考時,學生必須對來自AI的資訊保持懷疑態度,提出問題,並將其轉化為AI提示。有效的AI提示必須具備明確的任務、具體的格式、適當的語氣和足夠的上下文。清晰且具體的提示至關重要,應避免使用模糊的語句及過多同義詞,並將否定語句轉換為正面指令。此外,要求AI逐步深入思考並提供範例,能幫助生成更符合個人需求的文本,反覆迭代和修正也有助於獲得精確的結果。最後,透過後設提示(meta-prompts)調整提示語,以設定AI的行為和期望,進而提高回應的準確度。
 

  最後,第四章〈重新想像創造力〉探討了AI在創意領域的應用。AI能夠快速生成大量創意,不受文化、背景或專業框架的限制,提供突破常規的新奇觀點。儘管AI在創作過程中有時會出現錯誤或「幻覺」,這反而能激發創新,促使我們重新審視現有的思維模式。然而,AI在道德規範下運作的設計,雖然保證了結果的安全性,卻也可能限制其創造潛力,但若AI完全依賴自我生成進行創作,則可能產生「遞歸性問題」(recursive issue),亦即AI生成的內容回饋至數據庫,成為未來創作的基礎,導致產出愈來愈可預測和單一。如何平衡安全性與創造力,有賴使用者自身的判斷。因此,教育人員的角色變得尤為重要,需要幫助學生與AI一起成為更好的思考者,發揮更大的創造力。
 

二、與AI一起教學

  主題二〈與AI一起教學〉延續前面對AI思維與創造力的探討,將焦點轉向教學現場,深入分析AI如何協助教師,以及在學術誠信與評量中帶來的轉變。第五章〈AI輔助的教師〉剖析AI於教學現場的多重角色,不僅能協助設計課程與個別化學習任務,亦可模擬學生反應、激發課室討論,進一步強化師生互動與學習動機。藉由大數據分析與預測,教師得以即時掌握學生學習歷程,精準調整教學。課堂之外,AI則成為教師的研究助理,從資料蒐集到寫作潤飾皆能提供支援,促進專業成長。本章亦提供具體提示語,協助教師從繁瑣工作中解放,聚焦教學本質。然而,教師需意識AI的偏誤與侷限,避免技術便利凌駕於教育判斷之上,並在效率與專業之間維持平衡。
 

  而在實際教學中,AI帶來的挑戰往往與學術誠信相關。第六章〈作弊與檢測〉探討生成式AI對學術誠信的衝擊。COVID-19疫情推動線上學習,加上AI工具使用門檻降低,使學生更容易從事作弊行為。儘管學生普遍理解倫理風險,卻因教師難以察覺而心存僥倖,導致教師更加依賴AI檢測工具,然而,現有檢測工具的準確性不足,且涉及隱私與公正性問題。因此,與其強化監控,不如從課程與評量設計著手,提升學習任務的相關性、透明度與歸屬感,讓學生確實理解學習目標並體會學習的意義。當學生透過AI進行有意義的協作,產出具深度的作品,教育應將其視為創作歷程的一部分,而非單純的違規行為。
 

  第七章〈方針〉進一步呼籲高等教育重新界定學術誠信與AI使用之間的界線,正視學術與產業對AI價值觀的落差。在學術場域中,AI常被視為「作弊」工具,而在產業界則可能象徵「進步」,這種認知上的落差凸顯了誠信規範的模糊與侷限。AI使用方針的制定,應回到教育的初衷—我們為何而學?透過與學生討論學習目標與責任,培養其誠信意識與AI素養。本章介紹了英國羅素集團(Russell Group)提出的五項原則,包括提升AI素養、引導教師正確教學、調整教學與評量方式、確保AI使用的公平與誠信,以及推動經驗交流與最佳實踐。本章亦提供方針的範本:課程前期可禁止學生使用AI協助寫作,以強化基本能力;後期則開放在特定情境中使用AI,但要求學生提交提示語、生成內容與AI使用比例,並對最終成品負責。此類具彈性與透明度的規範設計,有助於培養學生的自主性與倫理意識,使其在運用AI時學會負責任地創作。
 

  為因應上述的教學轉變,第八章〈評分與(重新)定義品質〉挑戰現有評分標準,指出AI雖能穩定生成「合格」的內容,卻往往缺乏創造力與深度,而傳統以完成度與基本正確性為基準的標準,容易讓AI作品輕易過關,使教育品質下滑。本章建議教師不應禁止AI,而應提升評分標準,引導學生創作更具深度與創造力的內容。AI也可作為設計評量標準的輔助工具,協助教師向學科領域最佳標準看齊。然而,AI尚難取代人類對高層次思維與原創性的判斷。隨著AI能力的強化,學習評量不應只聚焦結果,更應關注學習過程,並將倫理、隱私與法律等元素納入考量,以建立符合AI時代新的品質標準。
 

三、與AI一起學習

  在教師角色與教育環境轉變的背景下,主題三〈與AI一起學習〉將視角轉向學生在學習過程中的主觀經驗與實作設計,進一步強調學生在學習過程中的主體性。第九章〈使用AI進行回饋與角色扮演〉強調教師應引導學生善用AI,提升作品品質與溝通能力。AI可扮演具同理心的導師角色,提供即時、個別化的回饋,培養學生的反思與修正能力。由於人類天生會將外部回饋與自我評價進行比較,教師的任務便是協助學生建立有意義的比較基準,從而深化學習成效。特別在資源分配不均的教育情境中,AI的介入能帶來回饋的公平性,補足教育資源的缺口。本章提供「回饋提示模板」(feedback prompt template),能協助學生提出精確的問題。當AI能理解使用者的背景與角色時,所提供的回饋將更具啟發性。此外,AI亦能扮演多元的角色進行模擬對話與情境學習,有效提升學生的溝通、判斷與角色意識。透過回饋與角色扮演的結合運用,學生從被動接受轉為主動尋求改善,逐步建立起負責任的學習態度。
 

  第十章〈設計能激發學習動力的作業與評量〉聚焦於如何透過作業設計激發學生的內在學習動機,特別是「我關心」、「我能做到」和「我很重要」等三大核心驅力。作業應與學習目標緊密結合,並提供適當的挑戰,從而提升學生的自我效能和成就感。作業也不應僅作為評量工具,更應幫助學生理解學習本身的價值與意義,避免學生僅為了及格而尋求捷徑。此外,本章提到過程導向作業(process assignments)的概念,鼓勵學生與AI合作調整提示語、修正內容,在人機互動中發展批判性思維與創作能力。此過程不僅深化了學習內容,也提高了學生的學習投入度。在學習過程中,自主性同樣至關重要,透過選擇權與回饋機制能激發學生的學習動力。本章亦提供檢核表,協助學生理解作業的步驟、順序和時間安排,強化其在學習歷程中的自主性與目標感。
 

  第十一章〈寫作與AI〉則探討AI對寫作教學帶來的挑戰與轉機。長久以來,寫作被視為觀察學生思維與促進認知發展的重要工具,但生成式AI的出現,使學生的寫作成果難以反映其真實思考過程。寫作的本質不僅是產出,更是一種組織語言、釐清思維的歷程,而這正是AI難以取代之處。因此,教師應重新設計寫作任務,聚焦思考過程而非單純文本產出,強調脈絡性、原創性、個人性與時效性,鼓勵學生結合自身經驗、文化背景與社會議題,深度探究與倫理反思;同時,透過提示語訓練,引導學生學習與AI協作。AI素養的培養亦至關重要,教師應引導學生辨識錯誤資訊、理解偏誤來源,並建立查證習慣,強調正確引用與科技倫理。AI並未取代寫作,反而促使我們重新定義其價值,讓學生在思辨、判斷與創造中找回學習的主體性。
 

  作為全書收尾,第十二章〈AI作業與評量〉延伸前述討論,聚焦於如何設計具有教育意義與評量價值的作業。本章提出多元的作業形式,例如簡報、詩歌創作、圖像設計、互動展覽、遊戲、影片錄製、社群合作與實地訪談等,鼓勵學生以創意與實作深化學習,亦整理出六種具代表性的過程導向作業策略:強調學習過程,要求記錄與分析學習歷程;強調文本註釋、經驗與討論的結合;設計動態、多階段性的問題;以真實跨學科議題為核心,推動長期深入的探究;利用AI客製化作業,根據學生需求與背景設計任務;設計探索式作業,鼓勵學生探索創新解決方案,並將學習結合社會問題。此外,本章也強調真實互動與人際參與的重要性,透過面對面交流、同儕協作與實地行動,能培養學生的倫理感與社會關懷。教師應將學生的參與、創造過程與真實互動作為教學核心,將AI視為促進學習的助力而非學習的替代品,讓作業與評量真正成為學習的延伸與深化。
 

參、全書特點與評述

一、全書特點

  這是一本結合理論與實踐的AI教學工具書,組織架構清晰,內容涵蓋AI的基本概念、教育應用與課堂實作,不僅提供具體的教學策略與提示語範本,也穿插豐富的實務案例,幫助讀者理解AI如何重塑課堂互動、學習歷程及評量設計。雖然作者整體上對AI持開放且樂觀的態度,但本書中並未忽視AI所帶來的風險與挑戰,特別是資訊錯誤、倫理困境與濫用風險等問題。
 

  有別於部分AI教育著作側重於道德辯論與規範建構,本書刻意淡化對倫理與公平性議題的直接評論,選擇以簡潔、務實的方式呈現AI應用的多種可能。這樣的「留白」策略,為讀者保留了更多思考與判斷的空間,避免將書籍導向單一價值立場,也減少過度引導的風險。換言之,本書並非旨在提供AI教學的「標準答案」,而是開展一場關於教育未來的集體對話。讀者無需照單全收書中每一項建議,而是可以在保有疑問的同時,依據自身判斷進行反思與調整。
 

  在AI技術迅速發展、產業與社會積極應用的當下,教育領域相對顯得謹慎與保守。本書正是在這樣的時代背景下,提供了一座從理解到實作的橋梁,不僅幫助我們掌握AI在教學中的實際角色,更引導我們以更具批判性與前瞻性的視角,重新思考「教」與「學」的本質與未來。
 

二、評述

  這篇書評的起點,不是對書籍的反思,而是對寫作的焦慮感。當我坐在電腦前,反覆敲打鍵盤卻寫不出滿意的文字時,腦中浮現的是書中提到的:「一篇好論文只需要一個好點子」。然而,尋找這個「好點子」的壓力往往妨礙了創意的流動。創作應始於無數個「壞點子」,而在這方面,AI的能力似乎遠超過人類。它不受框架限制、不怕出錯、能快速生成許多點子。於是,我決定打開ChatGPT,根據本書的提示語與建議,與AI開始對話。這篇書評,便是在與AI協作的過程中產生的。然而,當我逐漸依賴AI作為寫作輔助時,內心的不安也悄然蔓延。AI的確讓我寫得更快、更標準,但也讓我開始質疑:這還算我的作品嗎?如果脫離了AI,我還能寫出文章嗎?焦慮感在每一次刪除、修改與重寫的過程中不斷浮現。這種創作的焦慮與對「AI共寫」的依賴,揭露了研究者在寫作時遭遇的更深層挑戰。
 

(一)認知卸載vs.認知淺碟?

  隨著AI的發展,人們開始將部分認知任務交給機器,釋放心力以進行更高層次的創造與批判性思考。AI透過資料篩選與整合,有效地分擔人類處理資訊時的認知負荷,逐漸內化為人類認知系統的一部分(Risko & Gilbert, 2016)。早在數位技術普及前,Norman(1991)即指出紙張、地圖與電腦等「認知工具」如何擴展人與資訊的互動。延續前述概念,Krakauer(2016)將這些工具細分為「互補性工具」(complementary tools)與「競爭性工具」(competitive tools)。前者如算盤與阿拉伯數字,有助於內化能力;後者如計算機與GPS,則可能削弱我們原本具備的心智能力。本書認為,將AI視為「互補性工具」有助於能力的內化,也提供了許多在教學及作業與評估設計上的方針與具體案例練習,期望學生們即使脫離AI工具,仍然能夠獨立完成任務。因此,AI共寫並非捷徑,而是一種促進思維深度的過程。它不僅幫助學習者提高效率,更能反覆練習「整合觀點、生成問題、承擔選擇」。
 

  生成式AI作為一種高層次的認知工具,其影響力難以簡單歸類於上述兩類工具之一,因為它既可能協助學生深化思考、拓展表達,也可能讓學生過度依賴現成答案、放棄自我建構。以我個人的寫作經驗,隨著逐步融入AI協作,寫作不再僅僅是文字的堆砌與結構的安排,而是個人思維的延伸與表達。這一過程讓我深刻意識到,與AI協作創作的過程,比獨自完成一篇格式正確的文章更具挑戰性!


(二)進步的催化vs.創意的枷鎖

  當AI逐漸「滲透」教育現場,「好作品」的標準正在悄然轉變。以往的評量著重在是否達到「基本標準」,而如今,語句通順、格式完整早已成為AI可輕易達成的成果,導致「合格」不再具有區辨力。我們開始追求「更好」,但這個「更好」究竟意味著什麼?本書主張,與其禁止AI的介入,不如將其視為重新思考評量標準的契機,真正應該被關注的,不是學生是否使用AI,而是教師是否能引導學生理解「更好」的內涵—創意、批判性思考、獨特觀點與情感深度等。當學生對照自身與AI所生成的文本,思考「為什麼這樣寫更好」,便能啟動內在回饋(inner feedback)的歷程,進而發展風格意識,培養品質判斷與自我調整的能力(Nicol & McCallum, 2022)。
 

  然而,若教師忽略了這種轉變,AI所呈現的流暢與完整反而可能成為隱性標準,使模糊性、不完美、真誠與個人風格逐漸失聲,學生作品可能因此趨於一致與格式化,創作表面上獲得更大空間,實則被格式、規範與預設期望所禁錮,教師的角色也可能從創意與對話的引導者逐漸轉化為標準的執行者。這樣的處境,令人聯想到在孫原與彭禹的裝置藝術《情不自禁》(Can’t Help Myself)中,那隻無止盡清理液體的機械手臂,象徵著技術時代無法抽身的疲憊與困境(Nolan,2025)。當教育被要求不斷創新與提升標準,卻無法鬆動結構性限制,教師與學生便難以擺脫倦怠與無力。
 

  AI的確促使評量標準提升,為教育創造了新的可能性,但若無法同時維護評量的多元性與創造的彈性,「更好」終將淪為可預測、可複製的產出,而非真正深刻且具啟發性的學習歷程。與其一味地追求效率與整齊,我們或許更應該回到教育的核心,重新思考我們所追求的「更好」,究竟應該好在什麼地方?而這,或許正是教育真正應該守護的價值。
 

(三)重塑公平正義vs.複製不平等

  當AI逐漸成為教育現場的共學夥伴,我們必須重新思考:AI究竟是促進教育平權的契機,抑或是鞏固既有不平等的新機制?本書對AI教學潛力的樂觀描繪令人振奮,強調學生可以藉由AI分擔部分認知負荷,專注於更高層次的思考與創造。然而,這樣的理想狀態並非每位學生都能輕易達到。熟悉語言運用、具備提示語技巧的學生,往往能有效地操作AI工具,進而提升作品表現;而其他群學生卻可能因語言能力、數位素養或學習背景的限制,被排除在有效使用AI的門檻之外。原創、努力與公平的定義,也在不知不覺中被AI技術所重構。
 

  書中提到一個令人不安的現象—「AI連作弊都不平等了!」。當有些學生能輕鬆使用進階付費版的生成工具(如GPT-4、Claude、Copilot Pro等),快速產出流暢完整的文本時,另一群學生甚至無法順利登入或理解操作介面。即使是在「作弊」這個灰色地帶,技術與資源的落差依然清晰可見,暴露出AI工具在不同階層、不同語境下的不對稱可及性。
 

  正因如此,教師的任務不再只是辨識作品的真偽,而是建構能引導學生思考與反思的學習情境,不僅要教學生「如何使用AI」,更要引導他們判斷「是否使用、何時使用、為何使用」,這是一種結合技術素養與倫理思辨的綜合能力。可惜的是,在臺灣,許多AI相關教育政策,包括臺灣大專院校人工智慧學程聯盟(Taiwan AI College Alliance, TAICA)、5G偏鄉建設與AI素養課程等,大多仍停留在設備提供的層次,尚未能充分處理「誰能有效使用AI」的根本問題。在偏鄉學校,即使具備基本設備,若教師缺乏訓練、課程內容未針對學生特性設計,AI便可能成為一種「高科技的排除」,而非「低門檻的協助」。學生未必在技術上無法接觸AI,而是缺乏將AI化為學習資源的媒介與指引。這有可能導致那些原本處於學習弱勢的學生,不但沒有因此獲得補強,反而在競爭中更加落後。
 

  AI不會自動促進教育機會均等,它需要教育人員以深層的同理心與專業知能去回應差異、支援弱勢及重建公平。如果連教師都缺乏AI素養,怎麼培養具備AI素養的學生呢?因此,教師在教學自主中的學習與增能變得尤為重要,並需要成為學生的學習楷模。在AI協作成為常態的年代,教師不僅要自問:「我是否會使用AI?」,更應追問:「我能否幫助每個學生,都有機會學會與AI一起思考?」。這或許才是AI教育真正的起點。

Bowen, J. A., & Watson, C. E. (2024). Teaching with AI: A practical guide to a new era of human learning. Johns Hopkins University Press.
 

Brenan, M. (2023, July 11). Americans’ confidence in higher education down sharply. Gallup News. https://news.gallup.com/poll/508352/americans-confidence-higher-education-downsharply.aspx
 

Krakauer, D. (2016, September 5). Will A.I. harm us? Better to ask how we’ll reckon with our hybrid nature. Nautilus. https://nautil.us/will-ai-harm-us-better-to-ask-how-well-reckonwith-our-hybrid-nature-236098/
 

Nicol, D., & McCallum, S. (2022). Making internal feedback explicit: Exploiting the multiple comparisons that occur during peer review. Assessment & Evaluation in Higher Education, 47(3), 424-443. https://doi.org/10.1080/02602938.2021.1924620
 

Nolan, R. (2025). “Can’t Help Myself”: On generative AI, the performance of qualitative research and slow scholarship. Qualitative Research. https://doi.org/10.1177/14687941241308696
 

Norman, D. A. (1991). Cognitive artifacts. In J. M. Carroll (Ed.), Designing interaction: Psychology at the human-computer interface (pp. 17-38). Cambridge University Press.
 

Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676-688. https://doi.org/10.1016/j.tics.2016.07.002