最近密集使用AI的心得

雖說是密集使用,但不是什麼專業使用,若問我一些特別的使用技巧我可沒本事,因為我也是自己上網找來看的,但也用好一陣子了,稍稍分享一下。

因為新開了一個AI說聖經的YT節目(掛在「黑喵神研班」頻道底下),所以最近用了一堆AI,不管是生成文本、生成對談音檔、生成圖片、生成學習單,反正全都丟給AI執行,但這好不好,還有待觀察就是了,只是大家常有的質疑,也就是AI到底可不可信的問題,這倒是可以談一下。

從一開始的文本說起好了,光這部分我就試用了很多AI系統,但我只用免費版本,跟付費版本算力當然差很多,這一點要先說清楚,以下講的全都只是免費版本。

是這樣的,當年ChatGPT公開免費使用的時候我當然馬上就開始玩了,那時念研究所,自然也問了不少學術性的問題,然後很快就發現它會唬爛。

如果問它某些理論或立場,其實可以說得頭頭是道,很像一回事,其實也沒有說錯,但這是很一般論的內容。如果問到引用來源(對研究生來說這一點非常重要),AI根本不值得信任,最近也才發生學業論文用AI生成虛假文獻被抓包取消學位的事情,只能說這學生混過頭,我可是對AI給的引用來源一個一個確認,發現唬爛得太過離譜,確認完全不該白白丟給AI爬資料。

那我要讓AI幫忙整理神學資料會不會有問題?這有幾個部分要思考,一是基督教的文獻非常多,尤其聖經翻譯是非常嚴謹的工作,要訓練多語言模型的人絕不會放下這個寶庫不去使用,根本是AI訓練的賽塔羅石碑。

所以AI裏頭有的聖經資源一定很多。

但問題也出在資料很多,畢竟神學類別太多,很多還有衝突,涉及各種價值判斷,而這一點AI保證不及格,畢竟機器沒有價值觀可言,所以怎麼問問題很重要,否則一定會得到很爛的結果。

所以我嘗試用了很多模型,發現狀況都不大好。最後是因為Gemini可以設定自己想要用的角色,還能餵它各種文獻作訓練,這我可以試試,畢竟我什麼沒有,就是有百萬字以上的稿件可以使用,而且我可沒隨便亂寫,都是正式發文的內容。

(然後我發現google自己出的Gemini居然不能爬同樣自己公司的blogger的文章,真的太離譜了,還要我自己手動轉。)

所以我要Gemini生成研經文章的時候,它的確會依照我的要求去找網路上的補充資料,而且是配合我預設條件的方式(例如改革宗立場、支持台灣獨立、不要給我靈恩派的內容之類,有好幾百字的前提說明),接著用我的文章的內容去整理生成聖經各單元的重點整理。

這是第一步,而我當然要去檢視這些生成內容內容有沒有問題,所以一開始很辛苦,要一直重新下指令,要它增加什麼減少什麼、哪個地方立場要改、哪個段落給一點批判性建議,當然,因為AI會加入一些其他地方來的資料,不會完全跟我意見相同,如果沒差太多,我就把它留著,畢竟訓練用的資料包含自己寫的文章,如果一模一樣那多沒意思,我並沒有打算讓AI變成我的分身。

總之現在生成的東西越來越穩定(已經處理到出埃及記後半了,有四十幾集的內容,可以連載超過半年),我也開始進行下一步。

接下來是生成學習單,是的,AI說聖經每集除了影片以外,還會有一個重點整理與學習單可以下載,重點整理是語音內容的核心文本(但不是全部文本),接著還會有一個研讀聖經時可以使用的學習單,如果要拿去小組使用也無妨,不過學習單就是純AI生成,我沒特別去整理了。

再來是生成對談的檔案,目前NotebookLM華語的部分只有男女各一種聲音,所以去哪聽起來都一樣,因為網路上已經有不少人用這套系統生成節目了,大家可以注意一下。

但這個生成的內容太容易出現中國腔調,需要不斷警告與修正,現在輸出的東西中國腔少很多,甚至可以聽出是台灣腔調(例如捲舌音消失),滿有意思的,不過破音字是死穴,目前破音字似乎無解,如果聽到內容有好笑的錯音還請見諒(例如「說服」的發音)。

英語版已經有很多聲音可以選,以後華語如果角色變多我會看情況更換,當然有台語更好。

總之AI因為有學習能力,所以訓練越久就越不會出錯,最近生成內容的速度快上許多,如果以後連剪片也都由AI代勞,那我就沒事幹了,可以專心繼續寫文章。

但這也讓我關心如何問問題這一點,因為AI好不好用的關鍵,排第一的不是付費,而是知道怎麼下指令,像我太太其實AI用得比我兇,畢竟她想規劃好幾個節目,但因為她不熟悉如何給提示,給的指令不夠明確,出來的東西就越容易有很多唬爛。

因為我有給特定價值觀的限制,可以得到更明確的內容,或許對價值觀不同的人來說不是喜歡的內容,但絕不會是模模糊糊試圖多方討好的大雜燴,但要做到這一點必須很清楚自己想要的東西才行,因為我給的指令就包含釐清不同神學觀點的要求,因此AI必須把不同觀點列出來討論,而不是試圖製造一個全都包下來的渾沌。

其實我以前用電車難題把AI搞瘋過,我一直在軌道兩邊的人身上堆疊故事,是醉漢、詐欺犯、殺人犯、有悲慘的過去、不同年紀之類有的沒的,於是AI每次都把火車引到另一邊去,不斷切換,最後整個亂掉,因為他被迫替人標上價格,選擇讓一邊去死,偏偏這價格隨著故事不斷跳動,天平都變翹翹板了。

這跟人類社會一樣,每每有些情緒性小故事在干擾價值天平(最近最明顯的例子就是拿幾個巴勒斯坦小朋友的悲慘故事就想以偏概全成以色列該死,所以你們程度跟機器一樣而已?),這種狀況下AI生成的東西不但可信度很低,參考價值也很低,要讓它來生成神學內容可一點都不好笑。

總之我這也算是實驗,把AI的資料來源做限制篩選,看能不能給出比較有意義的東西來。

不過我都有把關過才會上節目啦!這部分不用太擔心,當然有些我很愛談的難解聖經詮釋(通常本來爭議就很大,早一堆人為這些吵架了),但基本上應該都不大有問題。

以上是我最近大量使用AI的心得,當然還會繼續使用,而且AI只會越來越強大,很期待未來的應用啊!


 

liker