0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習算法的隨機數(shù)據生成簡析

QQ475400555 ? 來源:博客園 ? 2023-03-15 09:07 ? 次閱讀

????在學習機器學習算法的過程中,我們經常需要數(shù)據來驗證算法,調試參數(shù)。但是找到一組十分合適某種特定算法類型的數(shù)據樣本卻不那么容易。還好numpy, scikit-learn都提供了隨機數(shù)據生成的功能,我們可以自己生成適合某一種模型的數(shù)據,用隨機數(shù)據來做清洗,歸一化,轉換,然后選擇模型與算法做擬合和預測。下面對scikit-learn和numpy生成數(shù)據樣本的方法做一個總結。

1. numpy隨機數(shù)據生成API

numpy比較適合用來生產一些簡單的抽樣數(shù)據。API都在random類中,常見的API有:

1)rand(d0,d1,...,dn) 用來生成d0×d1×...dn維的數(shù)組 。數(shù)組的值在[0,1)之間

例如:np.random.rand(3,2,2),輸出如下3×2×2的數(shù)組

array([[[ 0.49042678, 0.60643763],
[ 0.18370487, 0.10836908]],

[[ 0.38269728, 0.66130293],
[ 0.5775944 , 0.52354981]],

[[ 0.71705929, 0.89453574],
[ 0.36245334, 0.37545211]]])

2)randn((d0,d1,...,dn)也是用來生成d0xd1x...dn維的數(shù)組。不過數(shù)組的值服從N(0,1)的標準正態(tài)分布。

例如:np.random.randn(3,2),輸出如下3x2的數(shù)組,這些值是N(0,1)的抽樣數(shù)據。

array([[-0.5889483 , -0.34054626],
[-2.03094528, -0.21205145],
[-0.20804811, -0.97289898]])

如果需要服從035204b6-c2ac-11ed-bfe3-dac502259ad0.png的正態(tài)分布,只需要在randn上每個生成的值x上做變換0360e792-c2ac-11ed-bfe3-dac502259ad0.png即可 。

例如:2*np.random.randn(3,2) + 1,輸出如下3x2的數(shù)組,這些值是N(1,4)的抽樣數(shù)據。

array([[ 2.32910328, -0.677016 ],
[-0.09049511, 1.04687598],
[ 2.13493001, 3.30025852]])

3)randint(low[,high,size]),生成隨機的大小為size的數(shù)據,size可以為整數(shù),為矩陣維數(shù),或者張量的維數(shù)。值位于半開區(qū)間 [low, high)。

例如:np.random.randint(3, size=[2,3,4])返回維數(shù)維2x3x4的數(shù)據,取值范圍為最大值為3的整數(shù)。

array([[[2, 1, 2, 1],
[0, 1, 2, 1],
[2, 1, 0, 2]],

[[0, 1, 0, 0],
[1, 1, 2, 1],
[1, 0, 1, 2]]])

再比如: np.random.randint(3, 6, size=[2,3]) 返回維數(shù)為2x3的數(shù)據。取值范圍為[3,6).

array([[4, 5, 3],
[3, 4, 5]])

4)random_integers(low[,high,size]),和上面的randint類似,區(qū)別在于取值范圍是閉區(qū)間[low, high]。

5)random_sample([size]),返回隨機的浮點數(shù),在半開區(qū)間 [0.0, 1.0)。如果是其他區(qū)間[a,b),可以加以轉換(b - a) * random_sample([size]) + a

例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之間的3個隨機數(shù)。

array([ 2.87037573, 4.33790491, 2.1662832 ])

2. scikit-learn隨機數(shù)據生成API介紹

scikit-learn生成隨機數(shù)據的API都在datasets類之中,和numpy比起來,可以用來生成適合特定機器學習模型的數(shù)據。常用的API有:

1) 用make_regression生成回歸模型的數(shù)據

2) 用make_hastie_10_2,make_classification或者make_multilabel_classification生成分類模型數(shù)據

3) 用make_blobs生成聚類模型數(shù)據

4) 用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據

3. scikit-learn隨機數(shù)據生成實例

3.1回歸模型隨機數(shù)據

這里我們使用make_regression生成回歸模型數(shù)據。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)),noise(樣本隨機噪音)和coef(是否返回回歸系數(shù))。例子代碼如下:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets.samples_generator import make_regression

# X為樣本特征,y為樣本輸出, coef為回歸系數(shù),共1000個樣本,每個樣本1個特征
X, y, coef =make_regression(n_samples=1000, n_features=1,noise=10, coef=True)
# 畫圖
plt.scatter(X, y, color='black')
plt.plot(X, X*coef, color='blue',linewidth=3)

plt.xticks(())
plt.yticks(())

plt.show()

輸出的圖如下:

0375f966-c2ac-11ed-bfe3-dac502259ad0.png

3.2 分類模型隨機數(shù)據

這里我們用make_classification生成三元分類模型數(shù)據。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)), n_redundant(冗余特征數(shù))和n_classes(輸出的類別數(shù)),例子代碼如下:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets.samples_generator import make_classification

# X1為樣本特征,Y1為樣本類別輸出, 共400個樣本,每個樣本2個特征,輸出有3個類別,沒有冗余特征,每個類別一個簇
X1, Y1 = make_classification(n_samples=400, n_features=2, n_redundant=0,
n_clusters_per_class=1, n_classes=3)
plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)
plt.show()

輸出的圖如下:

03912880-c2ac-11ed-bfe3-dac502259ad0.jpg

3.3 聚類模型隨機數(shù)據

這里我們用make_blobs生成聚類模型數(shù)據。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)),centers(簇中心的個數(shù)或者自定義的簇中心) 和 cluster_std(簇數(shù)據方差,代表簇的聚合程度)。例子如下:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets.samples_generator import make_blobs

# X為樣本特征,Y為樣本簇類別, 共1000個樣本,每個樣本2個特征,共3個簇,簇中心在[-1,-1], [1,1], [2,2], 簇方差分別為[0.4, 0.5, 0.2]
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [1,1], [2,2]], cluster_std=[0.4, 0.5, 0.2])
plt.scatter(X[:, 0], X[:, 1], marker='o', c=y)
plt.show()

輸出的圖如下:

03c4179a-c2ac-11ed-bfe3-dac502259ad0.jpg

3.4 分組正態(tài)分布混合數(shù)據

我們用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據。幾個關鍵參數(shù)有n_samples(生成樣本數(shù)),n_features(正態(tài)分布的維數(shù)),mean(特征均值),cov(樣本協(xié)方差的系數(shù)), n_classes(數(shù)據在正態(tài)分布中按分位數(shù)分配的組數(shù))。例子如下:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_gaussian_quantiles
#生成2維正態(tài)分布,生成的數(shù)據按分位數(shù)分成3組,1000個樣本,2個樣本特征均值為1和2,協(xié)方差系數(shù)為2
X1, Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2)
plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)

輸出圖如下:

03e04a3c-c2ac-11ed-bfe3-dac502259ad0.jpg

以上就是生產隨機數(shù)據的一個總結,希望可以幫到學習機器學習算法的朋友們。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:機器學習算法的隨機數(shù)據生成

文章出處:【微信號:機器視覺沙龍,微信公眾號:機器視覺沙龍】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦

    如何使用MSP430內部時鐘生成隨機數(shù)

    ■TI公司 MSP430微控制器產品部Lane Westlund不管是生成隨機器件地址、強化加密算法還是創(chuàng)建獨立產品密鑰,可靠地生成隨機數(shù)
    發(fā)表于 07-12 06:20

    MSP430 MCU內部時鐘極低功耗生成隨機數(shù)

         不管是生成隨機器件地址、強化加密算法還是創(chuàng)建獨立產品密鑰,可靠地生成隨機數(shù)字都變得日益重要
    發(fā)表于 12-12 17:28 ?723次閱讀

    像計算機這類完全按邏輯運行的機器是如何生成隨機數(shù)的?

    像計算機這類完全按邏輯運行的機器是如何生成隨機數(shù)的? 計算機有兩種方式可以生成隨機數(shù): 您可以制造某種設備,用其監(jiān)視完全
    發(fā)表于 07-31 12:25 ?1531次閱讀

    神經網絡的偽隨機數(shù)生成方法

    為了克服有限精度效應對混沌系統(tǒng)的退化影響,改善所生成隨機序列的統(tǒng)計性能,設計了一種新的基于六維CNN(細胞神經網絡)的64 bit偽隨機數(shù)生成方法。在該方法中,通過控制六維CNN在每次
    發(fā)表于 02-02 15:49 ?0次下載

    隨機數(shù)生成算法

    在計算機上用數(shù)學的方法產生隨機數(shù)列是目前通用的方法,它的特點是占用的內存少,速度快.用數(shù)學方法產生的隨機數(shù)列是根據確定的算法推算出來的,嚴格說來并不是隨機的,因此一般稱用數(shù)學方法產生的
    發(fā)表于 04-03 10:25 ?6次下載

    C語言中隨機數(shù)生成代碼

    C語言中隨機數(shù)生成完整代碼:
    的頭像 發(fā)表于 02-20 09:21 ?1.1w次閱讀

    如何使用隨機數(shù)生成器來生成私鑰

    是偽隨機數(shù)生成器,它們都是由確定的算法,通過一個“種子”(比如“時間”),來產生“看起來隨機”的結果。
    發(fā)表于 03-18 10:40 ?5253次閱讀
    如何使用<b class='flag-5'>隨機數(shù)</b><b class='flag-5'>生成</b>器來<b class='flag-5'>生成</b>私鑰

    星系共識的隨機數(shù)生成算法對共識協(xié)議的作用

    基于PoW共識的區(qū)塊鏈系統(tǒng)由于挖礦的隨機性,以天然的方式為系統(tǒng)引入了熵,然而對于PoS和DPoS共識的區(qū)塊鏈系統(tǒng),就需要單獨設計一種方式去引入熵,那就是隨機數(shù)生成算法??梢哉f隨機數(shù)
    發(fā)表于 05-06 13:47 ?989次閱讀

    如何利用SystemVerilog仿真生成隨機數(shù)

    采用SystemVerilog進行仿真則更容易生成隨機數(shù),而且對隨機數(shù)具有更強的可控性。對于隨機變量,在SystemVerilog中可通過rand或randc加
    的頭像 發(fā)表于 10-30 10:33 ?1.2w次閱讀
    如何利用SystemVerilog仿真<b class='flag-5'>生成</b><b class='flag-5'>隨機數(shù)</b>

    單片機STM32F1隨機數(shù)生成探索與實踐(基于CUBEMX和KEIL5)

    隨機數(shù)廣泛地用于游戲、以及測試環(huán)境中,本文產生的隨機數(shù)將用于測試排序算法性能。一些高端型號的單片機具有硬件的隨機數(shù)發(fā)生器,如STM32F4,STM32H7等,從這些單片機的
    發(fā)表于 12-31 19:12 ?12次下載
    單片機STM32F1<b class='flag-5'>隨機數(shù)</b><b class='flag-5'>生成</b>探索與實踐(基于CUBEMX和KEIL5)

    用于生成隨機數(shù)的電子骰子

    電子發(fā)燒友網站提供《用于生成隨機數(shù)的電子骰子.zip》資料免費下載
    發(fā)表于 07-06 10:58 ?4次下載
    用于<b class='flag-5'>生成</b><b class='flag-5'>隨機數(shù)</b>的電子骰子

    隨機數(shù)生成器開源分享

    電子發(fā)燒友網站提供《隨機數(shù)生成器開源分享.zip》資料免費下載
    發(fā)表于 11-11 11:57 ?0次下載
    <b class='flag-5'>隨機數(shù)</b><b class='flag-5'>生成</b>器開源分享

    技術分享 | 隨機數(shù)生成過慢導致系統(tǒng)阻塞怎么辦?

    原理linux上隨機數(shù)生成原理是將系統(tǒng)的中斷信息收集起來放入熵池中,通過算法生成更多無序的數(shù)據,有了大量的無序
    的頭像 發(fā)表于 08-15 09:20 ?2787次閱讀
    技術分享 | <b class='flag-5'>隨機數(shù)</b><b class='flag-5'>生成</b>過慢導致系統(tǒng)阻塞怎么辦?

    FPGA的偽隨機數(shù)發(fā)生器學習介紹

    今天是畫師本人第一次和各位大俠見面,執(zhí)筆繪畫FPGA江湖,本人寫了篇關于FPGA的偽隨機數(shù)發(fā)生器學習筆記,這里分享給大家,僅供參考。 基于FPGA的偽隨機數(shù)發(fā)生器 (附代碼) 1、概念 隨機數(shù)
    的頭像 發(fā)表于 09-12 09:13 ?1880次閱讀

    如何使用雪花算法生成真正的隨機數(shù)

    以前用rand和srand生成過偽隨機數(shù),偽隨機數(shù)的序列是固定的,今天學習生成真正的隨機數(shù)
    的頭像 發(fā)表于 10-09 10:05 ?1539次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品