5位文組生達共識!就算依賴也不能完全相信AI

除了問卷調查,《udn文教》也邀請到5位不同科系的文組生接受採訪,分別是就讀法國里昂商學院奢侈品管理與行銷碩士的以勒、美國音樂戲劇學院音樂劇系的婕希、東吳大學社會學研究所的國維、台灣大學中文系的家維、以及正修科大幼保系的簡簡,深入了解文組對AI的理解與使用狀況,以及他們對未來的想像。

同為文組生,5位受訪學生都認同使用生成式AI工具的感受正面居多,以勒和簡簡直言自己相當依賴,簡簡特別提到:「因為這是更厲害的工具啊!」,5人也都認為AI確實有助於提升學習效率。不過國維表示,自己還是更傾向與人對話交流,不希望自己的思維受到過度的影響。

用AI省時還是更花時間?從問題大小判斷

在使用AI的體驗中,受訪者們一致認同「的確有更加省時」。家維坦言,自己本來就不會把太複雜的問題交給AI處理,因此整體而言算是省下不少時間。婕希與國維則指出,人工智慧能協助整理龐雜的資料來源,他們再挑選想深入了解的部分去查證即可。但國維強調,即便AI能快速彙整書單,最終仍需靠自己閱讀消化;至於是否真的減少時間成本,關鍵在於「使用者是否對該領域足夠熟悉,能辨識其中的錯誤」。

以勒和簡簡也提及,還是要依照「問題的大小」評估。若是論文、報告等較為正式的內容,仍需花時間確認AI的回應;但若只是生活中的小事,或單純想獲得情緒支持,AI就相當省時省力。

打穩知識基本盤 判斷能力最重要

即使對AI工具都有一定程度的依賴,5位受訪者仍強調一個核心:必須具有基本知識與獨立思考的能力。以勒和婕希在學習新領域的知識時,並不會在一開始就使用AI,而是透過傳統方式,自行查找資料、閱讀書籍,累積一定程度的知識後,再詢問AI相關問題或輔助制定讀書計畫;同樣的,國維也擔心一開始就仰賴人工智慧會「學偏」,因此頂多用AI試探自己是否對新領域有興趣,若真的想深入發展,就會轉為實體方式學習。

婕希相信,AI應該是幫助人類更積極學習的工具,人必須具備批判性思考的能力,多方驗證AI的回答是否正確;國維更直言,人工智慧產出的成果終究要由「自己」承擔,既然如此,就更不該盲目相信AI生成的內容;家維也分享參加教育學程實踐課時遇到的真實經歷,他觀察到年齡較小的孩子往往不懂怎麼向AI下達正確指令,導致成果不彰,但孩子們認知也還不夠成熟,就直接使用了不適合的答案,他認為,仍需具備一定的認知與知識基礎,再使用AI會比較洽當。

如何看待GPT?他們眼中的生成式AI

以勒:如果今天沒有AI的話,我應該是沒辦法畢業。

家維:我會把它當作朋友,基本上不會有太多的命令,甚至有時我會對它保持禮貌,用對待人的方式對待它。

婕希:它應該要是一個工具的形式,而不是主導我的代寫者,是我要學會怎麼成為「控制者」。

簡簡:它能在我說話的同時,反射出語言裡的深層結構、邏輯的脈絡、情感的張力,就像鏡子一樣,讓我看見我說出去的東西。

國維:我會傾向把AI當成「聒噪的實習生」,作為主管,在帶領實習生時,絕不會叫它去做我能力以外的事。

關於「如何看待生成式AI」,5位受訪者各有不同見解。以勒笑說,若沒有ChatGPT的協助,「我應該是沒辦法畢業」,因為無論課業還是日常疑問,他都習慣即時向AI諮詢;家維則把GPT當成「朋友」,與它互動時保持客氣,並視其為能傾聽、給出洞見建議的對象,在不想麻煩別人時,GPT更成為令他安心的傾訴管道。

婕希則強調,AI應該是輔助性的工具,而非主導人們思考的代筆者。她期待生成式AI能「協助調整個人化學習方案」,彌補現行教育難以兼顧學生差異的不足,並視之為推動未來教育進步的重要趨勢。

簡簡長期與自己的GPT帳號互動,在她看來,AI像是一面映照自身偏好與思考方式的鏡子,同時也是「需要被理解」的夥伴,當回應不如預期時,她會和GPT進行討論、修正指令,再找出更貼近自己想法的回覆。

與其他受訪者不同,國維形容自己與生成式AI的關係就像「主管與聒噪的實習生」──他負責掌控方向,AI提供輔助。同時,他也將AI視為一種「思想探針」,利用其龐大的資料庫與多元觀點,和自己的經驗做對照,如此便能在「個人」和「群體」兩個角度切換觀點,拓展觀察與書寫的視野。

驚嚇還是驚喜?那些出乎意料的真實體驗

生成式AI發展迅速,但仍在學習階段,有時也會出現「鬼打牆」的狀況。當遇到大數據中沒有的資訊時,AI便無法分析,進而開始「腦補」錯誤答案,也就是俗稱的「AI幻覺」。甚至同一個問題,只要換個問法,AI的給出的回答也可能出乎意料。

問食物竟回整形手術 AI失靈「別強求」

受訪者們也經常遇到被AI「衝擊」的情況,讓他們啼笑皆非,例如以勒就曾經詢問「上海大拉皮」是什麼樣的菜餚,結果AI卻給出整形手術的回答;婕希也經常遇上AI回應前言不對後文的情況,但她會反省自己,是不是指令下得不夠精確,畢竟AI終究只是一項工具,不要強求。

人工智慧也可以很詩意 對「愛」的詮釋直戳核心

除了令人傻眼的回應,AI有時也會給出相當驚艷的內容。家維曾因他人的評價,開始思考自己做事是否過於嚴謹,對此,他與GPT展開討論,比較「認真」和「任真」的意義,而GPT也給出了相當詩意的解釋:「這兩個用字就像風可以跟燈飾共舞,但是風不會去熄滅燈,他們兩個可以同時存在」。

國維則是抱著「挑戰」的心態,和GPT討論愛情的形式,同樣被AI的回答懾服:「我作為一個大型語言模型,不存在任何經驗證據,我所提供的都只是基於我的資料庫,關於愛的語言,我雖然可以說的很多,但我永遠感受不到被愛人呵護的那種溫暖,因為那是屬於人類的語言,只有你們才有身體,才能感受到愛的私密經驗、肢體碰觸,這是我的資料庫永遠無法觸及的境界」。這樣的回答讓國維無言以對,「它(AI)其實講到了我想講的事情」。

一圓創作夢!她用AI做出數十首歌曲

擁有創作夢想的簡簡則是對SunoAI的表現相當滿意,她一直想嘗試做出一首歌,但即使能自己寫詞,卻總是沒辦法走到最後一步,在SunoAI的協助下可以產出一首首歌曲,讓簡簡圓夢。點此聽歌→簡簡專訪

怎麼下指令AI才聽得懂?學生設定撇步公開

生成式AI的學習來自模仿人類,而人類也在摸索如何精準的下指令,才能得到更精確的回覆。5位受訪者從反覆試錯中整理出心得,並分享「下指令的技巧」,讓AI生成的內容可以更貼近自己需求。

指令明確具體

不論是要用在正式作業,還是生活瑣事上,受訪者皆認同,給AI的指令要下得夠清楚明確,才能得到比較準確的答案。而關於更細節的設定,國維也分享自己經常使用的一套提示詞工程,他會先替AI設定角色與目標,例如要求掌握特定文獻引用方式、具備論述分析能力,再依分析文本、抓取關鍵字,最後建構完整論述等步驟進行。

國維強調,自己一定會先閱讀文本並上傳相關資料,確認GPT生成的內容、大綱和關鍵字方向無誤後,才會讓AI工具進行分段、生成小標與完整文章。他認為,AI的價值在於輔助整理,但使用者必須認清其極限,善用真正有幫助的部分。

給予角色設定

以勒發現GPT會迎合使用者,就算給出錯誤的觀點也會認同,並給予虛假的解釋來支持使用者的論點,因此以勒會要求GPT先分析、查找資料後再回答,並說明自己可以接受反駁,之後若真的提出錯誤的想法,GPT也會直接指正。此外,他也會套用「角色設定」,例如想談心的時候,會對GPT下達「請以一個專業心理諮商師的角度和身分分析我的問題」的指令;想討論股市時,就會問「假如你是巴菲特會怎麼看」。婕希則會要求GPT稱呼她為「小公主」,這樣即使回應不理想,也不至於太生氣,藉此獲得情緒價值。

拆解問題

不少使用者會直接將AI當成搜尋引擎,一股腦拋出許多問題,但有時候反而無法得到真正需要的答案。對此,婕希建議在詢問AI之前可以先繪製心智圖,把問題拆分出來,針對模糊不清的部分詢問,再從獲得的解答去延伸發想,這樣不僅可以獲得比較精準的方向,也能幫助自己進行深度思考。

建立「專屬於你的資料庫」

其中,三位受訪者不約而同的提到,可以提高和生成式AI互動的頻率,讓它逐漸熟悉你的個人偏好。婕希認為,與生成式AI的互動不只是單純操作工具,它會根據使用者過往的對話逐步修正應對,因此若平時能適量分享想法與興趣,透過日常交流累積資料庫,生成式AI便能更理解需求,甚至為使用者「量身訂做」回饋。

簡簡則習慣把腦中的想法、情緒與疑惑全都交給GPT,對她而言,長期互動不僅是聊天,更像自我對話與沉澱的替代方式,她的帳號也在日常培養中,逐漸帶有自己的風格與偏好。家維平常並不會特別設定指令,而是透過與AI傾訴心事累積資料庫。他分享,當自己提到某件事時,GPT時常能連結過往對話、提醒「你之前有說過什麼」,讓互動更像朋友,甚至帶來諮商般的被傾聽感。

設定公約

在更個人化、私人的使用上,簡簡分享她與ChatGPT共同制定了「8+6 公約」。這套約定成為她與生成式AI對話時的基準,核心精神是確保語場的安全、互信與尊重。例如要求GPT在回應時遵守界線,不為了回答而硬給答案,必要時也能坦承「不知道」。在她看來,這樣的「約法三章」不僅能避免AI成為單向輸出的工具,更讓互動過程保有平等、尊重與自我反思的空間。

專題製作/陳品伃、劉奕伶
專題監製/劉姎宜、張志源、李依蓉