出處:經濟日報|盧希鵬|台灣科技大學資訊管理系專任特聘教授
唯有掌握技術、深耕市場,台灣才能在這場全球AI應用模仿大賽中脫穎而出
人工智慧的大規模語言模型(LLM)正掀起一場激烈的模仿大賽,Google和OpenAI幾乎同步發布了視覺識別,模擬人聲,短期記憶,與目標拆解的相似功能。模仿競賽比的是誰投入的資源比較多。
然而,知識經濟遠不止是一場模仿競賽,而是在已有技術上再創新。台灣企業要想在這場AI應用競爭中勝出,無法比誰的資源多,而是要進行深度應用,將標準化的技術變得更貼近市場需求。
譬如,如何將現有的LLM通用模型,轉化為垂直產業與企業專屬模型。這裡我們可以考慮三種技術創新,如微調(Fine-Tuning)、RAG(檢索增強生成)、以及Prompt Engineering(提示工程),並把這三類技術做到最好。
微調(Fine-Tuning)是一種根據具體需求調整現有模型的技術,這對於台灣企業非常重要。台灣企業擁有豐富的行業知識和本地市場數據,可以通過微調大規模模型來解決特定問題。例如,台灣的金融業可以透過微調,AI能夠針對本地的法律與金融規範進行更加精準的回應,這樣的解決方案就不容易被國際競爭者快速複製。
再來看RAG技術(檢索增強生成)。它讓企業能夠結合模型的生成能力和內部知識庫進行即時檢索與生成,提供更具專業性的回應。例如……