

愈來愈多學生被指控使用AI在作業上作弊,但若是錯誤指控,對學生的身心影響極大。示意圖,非新聞當事者。(取材自 pexels.com@Andrea Piacquadio)
AI程式的問世和興起普及讓生活更豐富,卻也帶來困擾。教育顧問指出,被指控利用AI在作業上作弊的案件數不斷增加,但其中不少被指控人都是被存在誤判機率的偵測軟體冤枉,身心因此受到極大影響; 專家也分享幾項預防和應對AI作弊指控的方法。
今日美國(USA Today)報導,北喬治亞大學的學生瑪莉(Marley Stevens)因為用一款利用AI技術的外掛Grammarly檢查報告的拼字和文法,她的教授認為她作弊用AI寫報告; 雖然該程式在北喬治亞大學的網站上被列為推薦使用的資源,但教授仍給瑪莉零分,馬裡花了半年時間申訴仍被留校察看,得零分影響她的GPA,還害她失去獎學金。
在這件事發生前,瑪莉已經因為被診斷有焦慮症及長期的心臟疾病在服用立普能錠(Lexapro),被指控作弊後,她的心理健康受到嚴重影響,她說她感到無助,睡不著,無法專注。
瑪莉不是單一個案。自由大學的瑪吉(Maggie Seabolt)去年初用微軟Word一個字一個字輸入的完成自己的報告,卻收到學校通知作業有35%以AI生成,這讓她非常困惑及壓力大,因為她不知道如何證明自己的清白。
紐約的教育顧問瓦格內羅瓦(Lucie Vágnerová)從2023年11月以來,已處理超過一百件和AI相關的學生不當行為案件,她說認為自己受到錯誤指控而向她尋求協助的學生人數逐漸增加,向她求助的人當中,最常提到的字就是“感到焦慮”。
愈來愈多的學生認為自己被不當指控使用AI作弊。自從ChatGPT於2022年問世後,學校就開始因應以AI協助作業的解決方式,但檢測軟體有誤判的可能,錯誤的指控就可能對學生心理產生影響。
普遍使用於偵測AI生成內容的系統Turnitin在AI生成內容低於20%時,發生誤判的機率就會變高,該公司表示,他們的系統不該被當作檢測學生作業的唯一依據。
ChatGPT問世後,許多教師使用如Turnitin的偵測軟體確認學術原創性,但專家說偵測軟體有將原創內容誤判為AI生成的風險,賓州大學去年的一項研究指出,AI偵測軟體很容易被拼字、標點符號和空格欺騙,建議不要使用於學術領域。史丹佛大學2023年的一項研究指出,ChatGPT的偵測系統對母語非英語人士有偏見,ChatGPT的母公司OpenAI更因準確度太低,關閉了他們自己的AI偵測平臺。
科羅拉多大學波德分校研究科技道德和網路政策的副教授菲斯勒(Casey Fiesler)說,單靠有系統偏見的AI偵測軟體來判斷學術原創性是不負責任的,風險太高,面對有瑕疵的演算法時很難為自己辯護。
學校的應對措施跟不上AI的快速發展也是一大問題,至今沒有一個通用的標準化規範; 非營利教育組織EDUCAUSE去年針對AI的相關調查中,將近一半的教育界高層、員工和教師認為其服務的學校對於學生使用AI沒有適當的準則。
在這樣的情況下,學生能以幾個方式保護自己,避免陷入AI冤獄。首先,瞭解自己修習課程對AI工具的使用規範,若不幸被指控使用AI作弊,撰寫紀錄可以作為證明,瓦格內羅瓦建議學生使用能儲存草稿的寫作軟體,提早開始撰寫、使用教授的課業時間及校內的寫作資源都能協助證明原創性,甚至可以將寫作過程中在網路上搜尋資料的紀錄畫面截圖作為證明。
為學生辯護的律師阿塞爾塔(Richard Asselta)建議學生在回應指控前和信任的長輩或同儕談談,並保持冷靜,因為他看過在相關案件中,被指控者犯的第一個錯誤就是回答前沒有仔細思考,結果說出讓他們被誤解的回應。
來源:世界新聞網

