面對黑盒子,反而更像人

認識我的朋友都知道,過去幾年,我大多數的時間都琢磨《社會設計導論》這門課。它並不簡單,甚至可以說,複雜得不太合理。學生進教室的時候,大多還沒準備好面對社會議題、也沒有設計經驗。他們只是素樸的受到「不平等」、「排除」、「結構性問題」等社會學概念所召喚,但卻對設計實作感到陌生,也未必能將自己的生活經驗轉化為可討論的分析材料。我知道,要帶他們從觀察走向行動,需要的不只是工具,而是節奏、引導、與大量反覆的練習。

但教學節奏從來不聽我的。

前幾週光是建立「觀察與問題意識」就消耗掉大半能量;而到了課程後段,還來不及讓學生深入理解各個設計反思的切入方式,就得催促他們交出設計提案。雖然曾試著設計各種任務與中介物件,像是場域觀察、牌卡工具、引導練習,但仍無法完全克服一個根本性的矛盾:社會設計的學習,既需要時間,也需要自我轉化。

這幾天,我與 ChatGPT 密集協作。

設計社會設計導論的作業評量標準、銜接問卷、牌卡體驗回饋;整建空白學程的三階段入學評估架構、移地學習紀錄表、專題成果報告格式、畢業審查流程;最後甚至拉出一份學程評估系統的建構進度規劃書。雖然過程中難免遇到幻覺,AI有時也做了後事忘了前因,但整體來說,反而感覺到一種久違的釋放與前進感——不再只是反覆打轉,而是每一次的對話,都能前進一點點。過程中我也會想起,以前和其他講者討論「把教學經驗設計進AI系統裡」的可能性時,對方曾說過他對此有所疑慮:「AI的演算法終究是黑盒子。」但這或許只說對了一半。

就以社會設計導論的課程銜接問卷設計為例吧。我想設計一份問卷,評估學生在操作《社會設計卡到陰》牌卡後,是否能提升個案分析的能力。我知道我要測的不是單一知識點,而是一種分析的轉化能力,而且問卷要能連動前測/後測,還要區分不同區塊的理解、應用與反思層次。當我把這些想法交給 ChatGPT 時,它有時候可以聰明地幫我快速草擬了三個結構分明的區塊(理解、能力感知、自我轉化),更不斷回問我:「你要測的是概念掌握,還是應用能力?」、「這張牌卡在流程中的使用順序是什麼?」、「學生當時的任務是觀察,還是討論?」(有點像在面對教發中心同仁)。有時候也會一頭霧水地答非所問(這倒是像教發中心同仁在面對我)。於是我得把之前的課程記錄翻出來餵它、把思考方式拆成一個個步驟,甚至指出它理解錯誤的地方。然後才能得到我想要的結果(喔,部分滿足啦)。

正是在這過程中,我清楚地意識到:這份問卷不是在測學生而已,也在反過來逼問我——你對這堂課的教學邏輯真的清楚嗎?你能說明這張牌卡對學生的幫助,在哪個學習環節發揮了效用嗎?那一刻我覺得,我不是在跟一個聰明機器合作,而是在和一面鏡子對話。它讓我像個人一樣,被迫說清楚我在乎什麼、我怎麼做決定、我在哪些地方仍然模糊或矛盾。這個過程,本質上不是被機器控制,反而是重新成為一個教學現場裡有意識、有判斷的設計者

正因為知道語言模型是個黑盒子,所以在使用它的過程中,我必須不斷拆解自己的想法、課程的設計、我的擔憂與顧慮,然後把這些資訊清楚地交給AI,與之討論可能的做法。正因為知道是演算法生成,我反而更常問自己:我為什麼這樣設計?我到底在在意什麼?我希望學生真的學會的是什麼?正因為知道自己在面對的是一台機器,所以我不得不一次又一次地提醒它——也提醒自己——「身而為人,我是如何思考的。」

相較之下,我想起過去參與過的一些標榜「以人為主」的教學共備或設計活動,那些活動有時在社會壓力與流程節奏的驅動下,要我們放棄像個人一樣思考,而是在有限時間內機械性地操作某種看似民主的「共識形成」。

那才是真正的非人化。

這段與AI的協作過程,也讓我重新思考「助教」、「教學團隊」與「共同備課」的可能樣貌。於是,我開始嘗試將每週的課程反思紀錄轉化為一個固定格式,叫做「課後10分鐘的教學對話」,整理本週學生反應、教學策略、評量檢核與下一步的調整想法。這些紀錄不只是我與AI的對話軌跡,也成為我與課程助教共同工作的起點。我們開始建立會議模板、批改校準流程、課程資料庫。這不再只是教學執行,而是讓助教也能進入教學思考的節奏中,成為真正的學習夥伴。

對我而言,AI不是取代人,而是幫助我更準確地把「人」的價值與判斷位置釘出來。也正因如此,我才得以在多線工作的困境中,保留反思的空間與設計的韌性。我不確定這樣的使用方式是否適合每一位教師,(暫時)也不認為AI能解決什麼深層結構的問題。但至少,對我而言,它提供了一個練習把事情說清楚的空間。說清楚課程設計的判斷,說清楚教學策略的選擇,也說清楚自己對學生學習的期待。

說清楚這件事本身,就是一種釐清。

喔,對了,本文是與ChatGPT協作完成,如果這寫作節奏順利的話,或許可以每週來一篇教學記錄的文章吧。尷尬的是,愛為工具取名字的我還不知道要叫它什麼名字哩?啊,也許就叫みちこ吧。

未知子。(笑)


Comments