區塊勢
區塊勢 Podcast
訓練 AI 資料哪來?如何運用 Web3 建構資料經濟?ft. Numbers Protocol 創辦人 Tammy Yang
0:00
-1:17:21

訓練 AI 資料哪來?如何運用 Web3 建構資料經濟?ft. Numbers Protocol 創辦人 Tammy Yang

EP.225

嗨,早!

前陣子中研院釋出一套繁體中文的大型語言模型(Large language models)CKIP-Llama-2-7b,但由於中研院一開始沒有說明這套模型是為了研究歷史人物專用,讓外界誤以為這是一套繁體中文的通用語言模型,並衍生出錯誤的期待、風波。

雖然這是一場誤會,但許多人都是經由這起事件才忽然意識到 AI 不是都靠別人就好,台灣也需要有本土化的大型語言模型才行。只不過,台灣的大型語言模型需要本土化的資料。不光整理資料本身就是一項苦工,連資料格式該怎麼訂定才能與國際接軌都是問題。

這集區塊勢邀請 Numbers Protocol 的共同創辦人 Tammy Yang 錄音。Tammy 的背景相當特別,她本身是物理學家卻在創辦 Numbers 之前還創立了 DT42 這家 AI 新創公司,是真正對 AI 和區塊鏈都有實戰經驗的專家。有別於網路上討論區塊鏈、AI 的內容,多數是要你投資加密貨幣。這集能提供另一種視角,資料先天就是一種數位資產。

點此收聽

這集內容包含:

  • DT42、Numbers Protocol 這兩家 AI 和區塊鏈新創分別在解決什麼問題?

  • 身為 AI、區塊鏈新創的創辦人,會說 AI 和區塊鏈有什麼關係?

  • 在 Web2 的資料是如何流動,Web3 的資料經濟又有什麼不同?

  • 以中研院釋出的 LLM 風波為例,你從中看到哪些現象?哪些與 Web3 有關?

  • 「開源標準適合小資料體」是什麼意思?小國與大國在發展 AI 上會有什麼差異?

延伸閱讀:

0 Comments