ROVER是艾倫人工智慧研究所於 2019 年發布的熱門 NLG 模型。儘管這篇文章最初是在 2020 年 5 月撰寫的,但它已不再可供公開訪問。
自從向公眾推出以來,我收到了相當多的媒體報道,我覺得這將是一個很好的模型來進行比較。它也是第一個引入調節(對世代的控制)的模型。在這種情況下,您可以指定文章的撰寫標準(領域、作者和標題),從而對最終輸出進行一定程度的控制。
GPT-2
GPT-2從最小的型號開始在 2019 年分 丹麥電報數據 階段發布。各大新聞媒體都報道了這個故事,並大肆報道。這些文章讓 GPT-2 的輸出看起來與人類書寫沒有差別。
HuggingFace提供了我在本研究中使用的模型的面向公眾的實現。據該網站稱,GPT-2“目前是語法上最連貫的模型。”但老實說,我對它的輸出印象並不深刻。
我使用預設設定(大模型尺寸、Top-p 0.9、溫度 1、最大時間 1),因為我認為這是最安全的選擇。根據 Google 的說法,我以網路上排名第一的文章中的段落形式為其提供了起始文字。
它的工作原理是,您提供一段文字(一個句子或段落),它為下一組單字提供最多三個選擇(最多三個單字)。對於我的測試,我總是選擇第一個選擇,假設第一個是最好的並且保持一致。
我發現這種形式的微觀管理非常乏味,而且使用者可用的控制也沒有太大幫助。這就像試圖駕駛一輛在高速公路上飛馳的汽車,只看著前方的前幾英尺。
一個令人不安的結果是,缺乏高階結構可能會導致主題內容在文章中途改變。前一分鐘你還在談論種植辣椒,下一分鐘就開始談論桃子了!
XL網
XLNet是最先進的自回歸模型 TransformerXL 的 在社群媒體上宣傳當地活動 改進,在 20 種不同的任務上優於 BERT。與 GPT-2 一樣,它可以在 HuggingFace 上供公眾使用。它在控制問題上也採取了與 GPT-2 相同的方法,並遇到了相同的問題。
使用這些自然語言生成模型
使用 NLG 模型感覺如何?以下是我在完成這項研究時發現的結果。它們按主題和 NLG 模型組織。
主題 – 胰高血糖素作為
MarketMuse NLG 技術
首先,您需要建立內容簡介,就像您使用人類作家一樣。一旦您對內容簡介感到滿意,您就可以索取初稿。生成過程不是自動的。目前,需要一些人為幹預,鑑於該服務尚未公開,這並不奇怪。
注意到這個例子的側邊欄上出現的簡短數據了嗎?這些是本節需要解決的問題和相關主題。這些資訊指導 NLG 流程,以確保取得有利的結果。它達到了 38 分的目標內容得分。
格羅佛
GROVER 被設定為針對該主題的結果中 中國資料庫 的頂級域之一以及該文章的作者進行撰寫。這裡的希望是輸出能夠模仿這種風格。
我嘗試了 3 次,選擇了最好的一代,其內容得分為 17。它在討論該主題時遺漏了幾個關鍵主題。
GPT-2
我在使用 GPT-2 來處理這個主題時遇到了一些問題。