天天看點

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

機器之心報道

編輯:蛋醬

AI 寫 AI,來得比預料中更快一些。

自從去年底推出以來,對話式 AI 模型 ChatGPT 火遍了整個社群。

ChatGPT 的确是一個了不起的工具,就像一個「潘多拉魔盒」。一旦找到正确的打開方式,你或許會發現,自己再也離不開它了。

作為一個全能選手,人們給 ChatGPT 提出的要求五花八門,有人用它寫論文,有人讓它陪聊,這些都是常見的玩法。腦洞再打開一點,既然 ChatGPT 是 AI 中的「王者」,那它會不會寫一個 AI?

近日,一位機器學習領域的部落客突發奇想,他決定讓 ChatGPT 建構一個神經網絡,使用 Keras 解決 MNIST 問題。

MNIST 算是機器學習領域的經典問題。即使這個手寫數字資料集逐漸淡出了計算機視覺領域,但它的紀念意義仍然不可忽視,很多人入門深度學習的第一個資料集、驗證算法的第一個實驗都是 MNIST。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

話不多說,想到了就開工。作者直接讓 ChatGPT 寫了一段代碼,看上去完美無缺,甚至不需要更改任何内容。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

這是一個很好的開始。

ChatGPT 選擇了分類交叉熵作為損失函數。作者提出重寫分類交叉熵這部分代碼,ChatGPT 将其替換為稀疏分類交叉熵,更新之後的代碼仍能 Work。可以發現,新的損失函數放棄了标簽的分類轉換。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

ChatGPT 生成的代碼使用了全連接配接層,但作者想使用卷積層。是以,ChatGPT 按照訓示修改了代碼,并添加了一個 Conv2D 和一個最大池化層(MaxPooling layer)。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

然後來到了評估最終模型階段,作者讓 ChatGPT 使用測試集編寫代碼。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

結果看起來很棒,而且 ChatGPT 的每一次回複都帶有完整的解釋。比如在這次評估中,它這樣解釋:

「評估」方法将測試資料和測試标簽作為參數,并傳回模型編譯(此處為準确率)期間指定的損失和度量。上面的代碼片段輸出了測試的準确率,這應該可以讓你了解到模型對新資料的概括性。‍

模型在訓練期間使用了整個測試集作為驗證資料。然後,作者讓 ChatGPT 将其更改為訓練資料的 20%。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

此外,作者還想要更小的 batch 并運作更少 epoch 的代碼。雖然這一步未必要用到 ChatGPT,但他不想在不更新 ChatGPT 上下文的情況下更改代碼。

是以這項任務還是落在了 ChatGPT 頭上:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

接下來,作者打算繪制訓練過程中的訓練和測試損失圖。ChatGPT 的建議是:需要更改适合模型的 line 以捕獲其結果值。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用
我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

為了展示資料集中的一些示例,作者讓 ChatGPT 編寫代碼來輸出圖像和标簽的組合。這些輸出的代碼也很完美,附有 20 張圖檔的合集。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用
我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

構模組化型時,檢視其結構也是必要的。如果用這個問題去問 ChatGPT ,回複是:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

ChatGPT 給出的是關于模型的總結:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

模型的總結很有用,但作者更想看到顯示模型結構的圖。是以繼續問:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用
我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

結果是滿意的,最後就是準備部署這個模型了,讓 ChatGPT 将模型儲存到磁盤吧:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

現在,作者想建立一個使用儲存的模型進行預測的類。這是 prompt 很有趣,解決方案也很完美。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

現在編寫一個示例,使用預測器的類來預測 10 個随機圖像的标簽:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

為了完成這個,作者讓 ChatGPT 展示了一個混淆矩陣:

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

該說不說,ChatGPT 使用的樣式還真挺好看。

我用ChatGPT寫神經網絡:一字不改,結果竟然很好用

完成所有試驗後,作者将所有 ChatGPT 生成的代碼公布了出來,你也可以上手試試:

位址:https://colab.research.google.com/drive/1JX1AVIfGtIlnLGqgHrK6WPylPhZvu9qe?usp=sharing

繼續閱讀