AIGC名詞解釋:機器學習的四種方式

2023-10-05     新設技

原標題:AIGC名詞解釋:機器學習的四種方式

用設計師能理解的語言

來解釋AIGC中的技術名詞

AIGC 屬於跨學科的產物,涉及領域眾多,包括高等數學、統計學、計算機圖形圖像學、機器學習等各個領域。AIGC 設計軟體的介面上往往會涉及到許多這些領域的技術術語。要想搞清楚它們背後的知識體系需要展開的知識樹體量十分龐大繁雜。術業有專攻,我們無法全面俱到地在每一個領域都做到精通,但又需要了解到一定的程度,以便更好地使用 AIGC 的相關軟體。所以,我們將儘量以設計行業從業者能理解的語言來解釋那些經常遇到無法繞開的技術術語。

機器學習的四種方式

監督學習、無監督學習

半監督學習、強化學習

監督學習

監督學習(Supervised Learning 或 Supervised Machine Learning ),是機器學習和人工智慧中的一種算法學習訓練方式。它的定義是使用標記數據集來訓練算法,以便訓練後的算法可以對數據進行分類或準確預測結果。

在監督學習中,每個樣本數據都被正確地標記過。算法模型在訓練過程中,被一系列 「監督」誤差的程序、回饋、校正模型,以便達到在輸入給模型為標記輸入數據時,輸出則十分接近標記的輸出數據,即適當的擬合。因此得名為「監督」學習。

監督學習的學習階段,

讓算法學習大量的貓臉圖片,

並明白這就是「CATS」

監督學習後的使用階段,

輸入給算法其他圖片時,

算法會分辨出哪些是「CATS」

哪些不是

監督學習可以廣泛應用於圖像識別、自然語言處理、語音識別等領域。監督式學習可分為兩類,「分類」和「回歸」:

  • 分類,Classification,使用一種算法來準確地將測試數據分配到特定的類別中,例如將垃圾郵件從你的收件箱中被識別出來並分類轉移到一個單獨的文件夾中。線性分類器、支持向量機、決策樹和隨機森林都是常用的分類算法。

  • 回歸,Regression,是另一種監督式學習方法,它使用一種算法來理解因變量和自變量之間的關係。回歸模型有助於根據不同的數據點來預測數值,例如某一業務的銷售收入預測。

分類,Classification,使用一種算法來準確地將測試數據分配到特定的類別中,例如將垃圾郵件從你的收件箱中被識別出來並分類轉移到一個單獨的文件夾中。線性分類器、支持向量機、決策樹和隨機森林都是常用的分類算法。

回歸,Regression,是另一種監督式學習方法,它使用一種算法來理解因變量和自變量之間的關係。回歸模型有助於根據不同的數據點來預測數值,例如某一業務的銷售收入預測。

無監督學習

無監督學習(Unsupervised Learning),無監督學習用算法來分析並聚類未標記的數據集,以便發現數據中隱藏的模式和規律,而不需要人工干預(因此,被稱為「無監督的」學習)。

無監督學習的輸入與產出。

雖然沒有被灌輸哪些圖片是貓的哪些是狗

但最終算法會把貓與狗分成兩類

無監督學習模型用於三個主要任務: 「聚類」、「關聯」和「降維」:

  • 聚類,Clustering,是一種數據挖掘技術,用於根據未標記數據的相似性或差異性對它們進行分類分組。這個技術適用於細分市場的劃分、圖像壓縮等領域。

  • 關聯,Association,使用不同的規則來查找給定數據集中變量之間的關係。這些方法經常用於「購物車」分析和推薦引擎,類似於「購買此商品的客戶也購買了…」這種電商中的推薦算法。

  • 降維,Dimensionality Reduction,當特定數據集中的特徵(或維度)太多時,它在保持數據完整性的同時,將數據輸入的數量(維度)減少到可管理可操作的大小。要知道有時候數據維度可能達到幾千上萬或更大的規模,這被稱為「維度爆炸」。在這種情況下,我們首先要對數據維度進行篩選去除干擾的無重要意義的維度,即降維。因此,這種技術通常用於數據的預處理階段,例如用自編碼器把圖片數據中的噪點去除,以提高圖像質量。

聚類,Clustering,是一種數據挖掘技術,用於根據未標記數據的相似性或差異性對它們進行分類分組。這個技術適用於細分市場的劃分、圖像壓縮等領域。

關聯,Association,使用不同的規則來查找給定數據集中變量之間的關係。這些方法經常用於「購物車」分析和推薦引擎,類似於「購買此商品的客戶也購買了…」這種電商中的推薦算法。

降維,Dimensionality Reduction,當特定數據集中的特徵(或維度)太多時,它在保持數據完整性的同時,將數據輸入的數量(維度)減少到可管理可操作的大小。要知道有時候數據維度可能達到幾千上萬或更大的規模,這被稱為「維度爆炸」。在這種情況下,我們首先要對數據維度進行篩選去除干擾的無重要意義的維度,即降維。因此,這種技術通常用於數據的預處理階段,例如用自編碼器把圖片數據中的噪點去除,以提高圖像質量。

其實無監督學習仍然需要人工干預來驗證它的輸出是否合理。比如數據分析人員需要驗證電商推薦引擎將嬰兒服裝與尿不濕、蘋果醬和吸管杯分組是否有實際意義。反過來,如果有一天,算法把兩個我們人類看起來毫不相關的兩種商品分類到一起,那我們或許會發現某種人類的潛在需求,我們需要認真對待這種分類,但這種潛在需求是否真的存在,我們尚且不知,仍需要市場去檢驗,但這至少啟發了我們。

監督學習與無監督學習的本質區別就在於用來訓練的數據是否已經被標註。這也導致了監督學習與無監督學習各有利弊。監督學習在處理大量數據的問題時比較吃力,但是一旦學習到位,其結果將非常準確和值得信賴。而無監督學習可以很輕鬆地同時處理大量的數據,可是是學習出來的結果不具備透明度,即無法解釋。但也因此導致無監督學習可以發掘出許多以前未曾被人類注意的新規律。

監督學習與無監督學習各有各的優缺點,如何將兩者的優點結合併規避缺點呢,於是半監督學習的模式誕生了。

半監督學習

半監督學習(Semi-supervised Learning)或可稱為混合學習( Hybrid Learning),可以說是兩全其美的方式。在我們擁有相對較少的標記數據和大量未標記數據的情況下,半監督學習結合了監督學習和無監督學習的優勢,於是可以發揮很好的作用。

半監督學習只標註了少量的訓練數據,

而剩下大部分訓練數據未標註

要知道在海量數據面前,手動標記數據的成本過於高昂且繁瑣,而未標記的數據很多、易於獲取,且每日都會產生大量的數據。因此,我們可以只標記數據集中的一部分,而不是標記整個數據集,然後用半監督學習方式來學習。

強化學習

強化學習(Reinforcement Learning)是一種機器學習技術,它基於反饋的學習方法,對算法執行的正確和不正確行為分別進行獎勵和懲罰的制度,目的是使算法獲得最大的累積獎勵,從而學會在特定環境下做出最佳決策。「強化」一詞來自於心理學,心理學中的「強化」就是通過提供一種刺激手段來建立或者鼓勵一種行為模式。這種「強化」模式很明顯有兩種:

  • 積極強化,是指在預期行為呈現後,通過給予激勵刺激以增加進一步導致積極反應。

  • 負面強化,通過提供適當的刺激來減少出現負面(不希望的)反應的可能性,從而糾正不希望出現的行為。

積極強化,是指在預期行為呈現後,通過給予激勵刺激以增加進一步導致積極反應。

負面強化,通過提供適當的刺激來減少出現負面(不希望的)反應的可能性,從而糾正不希望出現的行為。

想像一下,當你第一次玩馬里奧,卻沒有人指導你怎麼玩,你只能自己在遊戲中探索環境和重要的NPC,並隨時做好心理準備面對行動的後果。一個錯誤的舉動會導致失去一條「命」,一個正確的跳躍可以把我們帶到一個更安全的地方並獎勵金幣!因此,伴隨著獎勵和懲罰的探索,牽動著你的大量嘗試和錯誤 ,最終不斷地優化你的行動,讓你成為一個馬里奧遊戲的高手。這就是「強化」訓練!

遊戲中的獎勵懲罰和探索嘗試

這裡有幾個「強化」學習的要素需要明確:

  • 代理人,Agent:一個我們試圖學習的實體(即玩家在遊戲中所使用的角色);

  • 環境,Environment:代理人所處的環境(遊戲所設置的遊戲世界設定);

  • 狀態,State:代理人在環境中獲得自己當前狀態的各種信息;

  • 行動,Actions:代理人在環境中所執行的與環境交互的各種動作(馬里奧遊戲中的行走、跑步、跳躍等等);

  • 獎勵,Reward:代理人從環境中獲得的行動反饋(在馬里奧的遊戲里,即為正確的行動增加的積分/硬幣,是一個積極的獎勵。因落入陷阱或被怪物吃掉而丟失積分,或損失一條「命」,則是一個消極的獎勵);

  • 策略,Policy:根據代理人當前的狀態決定一個合適的決策,以最大化地在未來某個時間段內獲得正面報酬,最小化獲得負面的懲罰;

  • 價值函數, Value function:決定什麼才是對代理人是有益的。

代理人,Agent:一個我們試圖學習的實體(即玩家在遊戲中所使用的角色);

環境,Environment:代理人所處的環境(遊戲所設置的遊戲世界設定);

狀態,State:代理人在環境中獲得自己當前狀態的各種信息;

行動,Actions:代理人在環境中所執行的與環境交互的各種動作(馬里奧遊戲中的行走、跑步、跳躍等等);

獎勵,Reward:代理人從環境中獲得的行動反饋(在馬里奧的遊戲里,即為正確的行動增加的積分/硬幣,是一個積極的獎勵。因落入陷阱或被怪物吃掉而丟失積分,或損失一條「命」,則是一個消極的獎勵);

策略,Policy:根據代理人當前的狀態決定一個合適的決策,以最大化地在未來某個時間段內獲得正面報酬,最小化獲得負面的懲罰;

價值函數, Value function:決定什麼才是對代理人是有益的。

馬里奧成為玩家在遊戲中的代理人Agent

因此,強化學習完全可以被理解為一種遊戲方式的學習機制。讓機器算法學習做任務,做得好就有獎勵做得不好就有懲罰。當然,獎勵和懲罰機制本身也是一種算法,這些算法被先天性地植入到機器學習算法的最底層設計中,讓其最本能地目標首要考慮就是如何去贏得獎勵且規避懲罰。然後,給機器算法一個最終的目標即可!

想想生為人類的我們,總是自認為有獨立的思考和判斷,靈魂是自由的,擁有自由的意識。但實際上確實是這樣嗎?是一種怎樣的機制讓我們一生都去追求那些心馳神往的美好東西,又是什麼讓我們覺得恐懼和厭惡?這美好與恐懼真的存在嗎?我們真的有自由意識嗎?我們如何確定自己不是被訓練出來的算法?

AIGC基礎知識

專業名詞解析

Stable Diffusion從入門到精通到實戰

專欄內容簡介

從AIGC的基礎概念介紹開始,以「喂飯級」的語言,逐一詳細介紹 Stable Diffusion WebUI 的各個參數與設置,配合詳細的圖文素材,並用大量實戰案例來解讀 Stable Diffusion 在目前各設計領域中的應用。

通過這個專欄,你會得到

AIGC的基礎概念、紮實的基礎知識;

AIGC圖像設計創作領域目前最重要的陣地——Stable Diffusion 的相關基礎知識、專業術語;

Stable Diffusion WebUI 軟體中每一個參數詳細功能介紹,原理,對應AI生圖的結果;

Stable Diffusion WebUI 的具體使用方法和技巧,各種模型介紹、周邊配套插件與軟體的使用方法和技巧;

Stable Diffusion WebUI 在實際設計產業中的應用、實戰解析;

Stable Diffusion 的提示詞庫、參數庫等;

購買全套課程的學員,享受半年免費 SD-WebUI(高性能GPU)線上使用權限,使用期限內無限出圖、高速出圖。

訂閱須知

《Stable Diffusion從入門到精通到實戰》為圖文/視頻專欄,不少於 20 期,每周五 21:00 點更新;

20 期更新結束後,專欄內容會根據 AIGC 領域的最新動態、Stable Diffusion 的不斷疊代而產生新內容,這些與時俱進的新內容無需額外付費;

添加一對一輔導員,及時收到通知更新內容,一對一解答疑難問題;

本專欄為虛擬內容服務,購買成功後不支持退款,請理解。

加輔導員微信諮詢

了解更詳細課程信息

一對一解答疑難問題

Stable Diffusion WebUI

從入門到精通再到實戰

完全喂飯級,細緻到每一個參數

「設計小白」都能看懂

有設計基礎的朋友更會得到啟發

抓住人工智慧工業革命帶來的新機遇

輔導員微信:cyxq2019

長按上方二維碼圖

在彈出菜單中選擇「打開對方的名片」

加輔導員微信,諮詢課程

文章來源: https://twgreatdaily.com/zh-hk/5df2f01f18577e15536355273ded0d8d.html