生成式 AI的實現方式多種多樣
包括不同的模型架構與演算法:
生成對抗網路(GAN):
由一個 生成器 和一個 鑑別器 組成,
透過競賽方式 讓生成器產生越來越逼真的資料,多用於圖像等內容的生成 。
Transformer架構:
是一種以 自注意力機制 為 核心 的 神經網路模型,
主 要應用於 自然語言處理(NLP) 等領域。
它的 關鍵創新在於
不使用傳統的 循環神經網路(RNN:一個字一個字慢慢看),
而是透過 同時關注序列 中 所有元素之間 的 關係 來捕捉資訊。
目前文字領域中最主流的
是以Transformer為基礎的
大型語言模型(LLM) ,如 GPT-4,
能夠 擅長 理解上下文 並生成 長篇連貫 的文本。