教師使用生成式AI的
3個常見誤區
侯宇嵐
在當下來說,如果你能夠對使用生成式AI抱有開放心態,積極嘗試使用它來解決工作和生活中的問題,那麼你已經跨越了人們面對新技術時最大的誤區:蔑視、抗拒、否認或害怕新事物。而對於剛剛嘗試生成式AI的人來說,需要避免下面3個常見誤區。
/01/
把生成式AI當作搜尋引擎用
Artificial
Intelligence _
生成式AI和搜尋引擎是兩種不同的工具,它們各自有其獨特的優勢和用途。
生成式AI的專長包括:
-
語言互動和對話管理:生成式AI能以自然語言形式進行對話,提供更加人性化的互動體驗。
-
生成詳細和連貫的文字:能根據使用者的問題生成連貫、詳細的答案和解釋。
-
模擬對話和情景:可以模擬不同的對話情景,幫助使用者理解複雜概念或進行教學模擬。
搜尋引擎的專長包括:
-
資訊檢索範圍廣:索引網際網路上的廣泛資訊,能提供更全面的搜尋結果。
-
即時資料和新聞更新:能夠提供最新的新聞和資訊,反映最新的事件和資料。
-
多媒體搜尋功能:不僅可以搜尋文字資訊,還可以搜尋圖片、影片和地理位置等。
-
高階搜尋演算法:快速有效地從大量資訊中找到最相關的結果。
目前來看,生成式AI不能完全取代搜尋引擎。雖然生成式AI在回答特定問題和提供個性化建議方面非常有用,但對於需要最新資訊或廣泛資料的查詢,好的搜尋引擎仍然是更優的選擇。而生成式AI則適用於需要對話式互動或深入討論某個話題的場景。兩者的結合使用可以提供更全面、高效的資訊獲取體驗。
/02/
不檢查幻覺和偏見
Artificial
Intelligence _

簡單地說,生成式AI會編造一些東西,但是當作正確的東西告訴使用者,這就是幻覺。而訓練生成式AI的資料既然來自於人類的語言輸出,本身就已經包含了偏見,訓練出的AI也會具有偏見。
有些幻覺比較容易識別,比如一本捏造的書。但有些幻覺比較難以鑑別,比如真實事件中的細節、人物、日期、對話等等。特別當你詢問的內容本身就沒有足夠的資料資料時,生成式AI會傾向於透過計算詞彙出現機率來生成完整的話語,幻覺就產生了。
前不久網路上非常流行的一個例子是,問生成式AI有關中國“雙搶”的內容。“雙搶”指的是“搶收早稻和搶種晚稻”,但這個內容缺乏足夠的語料,所以生成式AI就會望文生義,解釋為“搶劫”兩種東西,並煞有介事地分析當時的社會環境如何導致這種嚴重的情況。
幻覺關乎事實,偏見關乎觀點。當你對AI生成的事實不確定時,可以藉助搜尋引擎來查證。此外,你也可以請AI自行檢核它生成的內容中是否包含了偏見。偏見往往來自於性別、種族、文化習俗等方面,你可以請AI就某個特定方面進行檢核。
當然,你也可以讓它自行檢測事實錯誤,但是,這一做法仍然有風險,因為它很容易以新的幻覺來取代它核查出來的幻覺。有關事實的確認最好去尋找其他可靠的資訊源。
/03/
止步於第一個回答
Artificial
Intelligence _
