2.1. 參與者與任務
參與者係中學EFL學生,之前冇正式使用過ChatGPT呢類尖端聊天機械人嘅經驗。研究透過iPad屏幕錄影捕捉佢哋使用AI完成指定寫作任務嘅過程。呢種方法提供咗人機協作過程原始、未經篩選嘅視角。
ChatGPT呢類尖端(SOTA)生成式AI聊天機械人嘅出現,為語言學習同寫作支援帶來咗範式轉移。同以往基於規則嘅系統唔同,呢啲建基於Transformer等神經網絡架構嘅模型,能夠生成連貫且語境相關嘅文本。對於以英語為外語(EFL)嘅學習者嚟講,呢個係一個強大但複雜嘅工具。本研究指出嘅核心挑戰係提示工程——即係設計有效指令,從AI中引出期望輸出嘅技能。缺乏呢項技能,使用者(尤其係非技術背景嘅學生)就會陷入令人沮喪嘅試錯過程,限制咗工具嘅教學潛力。
本文研究咗中學EFL學生首次使用ChatGPT完成寫作任務時,新興嘅提示工程行為。研究超越理論討論,呈現咗實證性、定性嘅案例研究,描繪出唔同嘅使用者途徑。
本研究採用定性案例研究方法,分析新手使用者嘅真實互動數據。
參與者係中學EFL學生,之前冇正式使用過ChatGPT呢類尖端聊天機械人嘅經驗。研究透過iPad屏幕錄影捕捉佢哋使用AI完成指定寫作任務嘅過程。呢種方法提供咗人機協作過程原始、未經篩選嘅視角。
屏幕錄影被轉錄同分析,以編碼以下方面:
從呢個分析中,識別出四種典型嘅使用者途徑,並發展成詳細嘅案例研究。
分析結晶出四種截然不同嘅行為模式,代表咗提示工程熟練程度嘅一個光譜。
呢位學生使用嘅提示數量非常少(例如1-2個)。初始提示通常係對任務指令嘅簡單直接翻譯(例如:「寫一篇關於氣候變化嘅文章」)。佢哋對AI嘅輸出參與度極低,幾乎唔作修改就接受第一個結果。呢個途徑突顯咗一種工具即神諭嘅誤解,將AI視為提供完整最終答案嘅工具,而非協作夥伴。
呢位學生以線性、迭代嘅順序使用中等數量嘅提示。佢哋從一個基本提示開始,審視輸出,然後發出後續指令進行特定改進(例如:「寫長啲」、「用簡單啲嘅字」)。呢個途徑展示咗對AI指令回應性嘅初步理解,但仍處於基本嘅修訂請求框架內。
呢位學生採用更多提示,並使用策略性、多階段嘅方法。佢哋可能會先要求AI「就X主題為一篇文章構思三個點子」,然後選擇一個,再要求一個大綱,最後根據該大綱請求一份草稿。呢個途徑反映咗更複雜嘅元認知策略,將寫作過程分解,並喺每個階段使用AI提供結構化支援。
呢位學生使用大量提示,變化顯著但缺乏明顯策略。提示嘅焦點同風格急劇轉變(例如:從正式到口語化,從寬泛到狹窄),冇清晰嘅進展。呢個途徑體現咗無結構嘅實驗,係新手體驗嘅特徵,通常導致混亂同時間使用效率低下,雖然偶爾可能產生創意結果。
研究發現提示數量同最終輸出質量之間冇簡單嘅相關性。途徑C(結構化提問者)通常產生最適合任務嘅文本,唔一定係透過最多提示,而係透過最具策略性同高質量嘅提示。質量由具體性、語境提供同任務分解程度定義。一個精心設計嘅提示(例如:「為校刊寫一篇300字嘅說服性文章,主張校園增設更多回收箱,使用兩個統計數據同一個行動呼籲」)可以勝過十幾個模糊嘅提示。
途徑C(結構化) 持續獲得獨立評估員最高評分嘅最終草稿,儘管唔一定使用最多輪對話。途徑D(試錯) 嘅成果質量差異最大。
呢啲途徑鮮明地展示咗唔同層次嘅隱性AI素養。途徑A同D嘅學生缺乏對ChatGPT如何處理請求嘅功能性心智模型。相反,途徑B同C嘅學生展示咗對AI作為一個隨機性、遵循指令嘅系統嘅初步理解。佢哋直覺地掌握到,更清晰、更有結構嘅輸入會帶來更可預測同有用嘅輸出。呢個發現直接支持咗像國際教育科技協會(ISTE)等組織嘅呼籲,即將AI素養基礎知識融入K-12課程。
理解呢啲途徑需要一個技術視角。ChatGPT同類似模型基於Transformer架構,本質上係下一個詞元預測器。給定輸入提示$P$,生成特定輸出序列$O$嘅概率建模為: $$P(O|P) = \prod_{t=1}^{|O|} P(o_t | P, o_1, ..., o_{t-1})$$ 其中$o_t$係位置$t$嘅詞元。學生嘅提示$P$為輸出設定咗初始語境同概率分佈。
分析框架示例: 我哋可以將學生嘅提示工程會話建模為一個狀態機。令狀態(S)為對話嘅當前語境窗口(最後$k$個詞元)。動作(A)係學生嘅下一個提示。獎勵(R)係AI回應嘅感知有用性(例如:1-5分嘅主觀評分)。學生嘅目標係學習一個策略$\pi$,將狀態映射到動作,以最大化累積獎勵。呢四種途徑代表咗人類使用者面對呢個強化學習問題時,唔同(通常係次優)嘅探索策略。
圖表描述: 一個概念圖表會將提示具體性(X軸)對比任務分解程度(Y軸)。途徑A(極簡主義者)會聚集喺低-低象限。途徑D(試錯探索者)會喺圖表上顯示一個分散嘅雲點。途徑B(迭代優化者)會顯示向右嘅水平移動(增加具體性)。途徑C(結構化提問者)會佔據高-高象限,展示其提示中嘅高具體性同高任務分解使用率。
核心啟示: 任由學生透過試錯去發現提示工程,喺教學上係低效同唔公平嘅。佢有利於自然發展出策略性思維(途徑C)嘅學生,而對其他學生不利。
可行策略: 必須將明確、有支架嘅提示工程教學融入EFL寫作教學法。包括:
未來研究與發展:
核心洞見: 呢項研究其實唔係關於ChatGPT;佢係對人機反饋循環中未做好準備嘅人類嘅一個鮮明揭示。工具嘅能力遠遠超過使用者引導佢嘅能力。呢四種途徑唔單止係行為;佢哋係一種新形式數碼文盲嘅診斷標記。真正嘅產品缺口唔係一個更好嘅LLM,而係一個更好嘅人機介面層,能夠實時教授互動策略。
邏輯流程: 本文正確地識別咗問題(試錯係默認狀態),並透過途徑分類法提供咗優雅嘅實證證據。佢作出嘅邏輯飛躍——呢點好關鍵——係呢啲新手行為唔係一個暫時階段。如果冇干預,極簡主義者同試錯探索者途徑可能會固化為永久、次優嘅使用模式,鞏固一種權力不對稱,令使用者被工具嘅默認設定牽引,而非主導工具。呢點同人機互動研究中更廣泛嘅關注點一致,例如關於高度輔助系統中「自動化偏見」同「技能衰退」嘅討論。
優點與不足: 優點在於其紮根、觀察性嘅研究方法。屏幕錄影唔會說謊。主要不足(文中隱含承認)係規模問題。從有限樣本得出嘅四種途徑係引人注目嘅原型,唔係確定性嘅類別。研究亦迴避咗房間裡嘅大象:評估。如果一個極簡主義者用AI生成嘅文章從工作繁重嘅老師嗰度得到合格分數,佢有乜嘢動力去學習提示工程?本文嘅教育建議依賴於一個重視過程多於成果嘅系統,而目前大多數教育評估框架都唔係咁樣。
可行見解: 對於教育科技投資者同開發者,結論好清晰:下一波價值創造在於提示工程支架。想像一下提示嘅Grammarly——一個覆蓋層,分析學生最初模糊嘅指令並建議:「試下加返目標受眾同字數要求。撳呢度睇例子。」對於學校管理層,任務係資助專業發展,唔單止係使用AI,仲要教授與AI互動嘅教學法。呢項研究提供咗完美證據去爭取呢筆預算。最後,對於研究人員,途徑框架係一個可複製嘅視角。將佢應用於專業人士使用AI進行編程(GitHub Copilot)、設計或法律研究。我預測你會發現同樣嘅四種原型,證明呢個係一個基本嘅人機互動挑戰,唔單止係EFL問題。