位置: IT常识 - 正文
推荐整理分享主动学习(Active Learning,AL)的理解以及代码流程讲解,希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!
针对有监督的学习任务,存在标记成本较为昂贵且标记难以大量获取的问题。 在此问题背景下,主动学习(Active Learning, AL)尝试通过选择性的标记较少数据而训练出表现较好的模型。
例如,此时我们有大量的猫和狗的数据,假设人为标记他们的类别是成本非常高的事情,这时需要用到主动学习从中挑选部分数据对他们进行标注以节约成本,用主动模型选取出的标注数据训练的模型比随机选取出的相同数量的标注数据训练的模型精度更高。
如图所示,图(a)是全部数据集,图©中使用主动学习策略仅选取30个样本训练出的逻辑回归模型即可达到90%的准确率,而图(b)中随机选取的30个样本训练出的模型却相对表现较差。
主动学习的工作流程主动学习的关键是你选择的模型、使用的不确定性度量以及应用于请求标注的查询策略。
1.收集数据&选取模型开始先选择一定数量的数据进行标注,选取我们需要训练的模型(比如逻辑回归模型)。
2.训练模型将标注好的数据放入模型中进行训练,此时精度不会很高。
3.判断精度是否达到要求①若精度达到要求(比如99%),则表示模型以及训练好,可以应用。 ②若精度没有达到要求(比如只有12%),则表示模型未被训练好,这是需要利用主动学习选取对模型精度的提高最有用的数据进行人工标注。
4.定义查询策略包括度量预测的不确定度和应用于请求标注的查询策略,返回策略选择出的需要标注的数据,进行人工标注,转至第2步。 例如:
def custom_query_strategy(classifer, X): utility = utility_measure(classifer, X) #度量预测的不确定度 query_idx = select_instances(utility) #应用于请求标注的查询策略 return query_idx,X[query_idx]主动学习的pytorch编码流程主动学习的编写代码流程如下:
代码实战接下来我们以一个主动回归例子为主,实现主动学习的编码。
1.导入相应的包import numpy as npimport matplotlib.pyplot as pltfrom sklearn.gaussian_process import GaussianProcessRegressorfrom sklearn.gaussian_process.kernels import WhiteKernel, RBFfrom modAL.models import ActiveLearner%matplotlib inline2.数据集准备以及初始数据集的选取# 生成回归数据集 加高斯噪声X = np.random.choice(np.linspace(0, 20, 10000), size=200, replace=False).reshape(-1, 1)y = np.sin(X) + np.random.normal(scale=0.3, size=X.shape)#原始数据集可视化with plt.style.context('seaborn-white'): plt.figure(figsize=(10, 5)) plt.scatter(X, y, c='k', s=20) plt.title('sin(x) + noise') plt.show()# 初始数据集的选取n_initial = 5 # 最开始随机选取5个标注好的数据集进行训练initial_idx = np.random.choice(range(len(X)), size=n_initial, replace=False)X_training, y_training = X[initial_idx], y[initial_idx]3.定义主动学习器ActiveLeaner(参数包括模型的选取estimator、应用于请求标注的查询策略query_stategy以及初始数据) 我们使用高斯回归作为模型进行训练GaussianProcessRegressor
#定义estimator高斯回归模型的核函数kernel = RBF(length_scale=1.0, length_scale_bounds=(1e-2, 1e3)) \ + WhiteKernel(noise_level=1, noise_level_bounds=(1e-10, 1e+1))#定义query_stategy应用于请求标注的查询策略def GP_regression_std(regressor, X): _, std = regressor.predict(X, return_std=True) #不确定度度量 query_idx = np.argmax(std) #样本的选取 return query_idx, X[query_idx]#定义ActiveLeaner 主动学习器regressor = ActiveLearner( estimator=GaussianProcessRegressor(kernel=kernel), query_strategy=GP_regression_std, X_training=X_training.reshape(-1, 1), y_training=y_training.reshape(-1, 1))#可视化初始模型的精度状况X_grid = np.linspace(0, 20, 1000)y_pred, y_std = regressor.predict(X_grid.reshape(-1, 1), return_std=True)y_pred, y_std = y_pred.ravel(), y_std.ravel()with plt.style.context('seaborn-white'): plt.figure(figsize=(10, 5)) plt.plot(X_grid, y_pred) plt.fill_between(X_grid, y_pred - y_std, y_pred + y_std, alpha=0.2) plt.scatter(X, y, c='k', s=20) plt.title('Initial prediction') plt.show()4.定义n_queries(要标记数据的数量)进行主动学习#定义n_queries(要标记数据的数量)进行主动学习n_queries = 10for idx in range(n_queries): query_idx, query_instance = regressor.query(X) regressor.teach(X[query_idx].reshape(1, -1), y[query_idx].reshape(1, -1))5.最终结果可视化y_pred_final, y_std_final = regressor.predict(X_grid.reshape(-1, 1), return_std=True)y_pred_final, y_std_final = y_pred_final.ravel(), y_std_final.ravel()with plt.style.context('seaborn-white'): plt.figure(figsize=(10, 8)) plt.plot(X_grid, y_pred_final) plt.fill_between(X_grid, y_pred_final - y_std_final, y_pred_final + y_std_final, alpha=0.2) plt.scatter(X, y, c='k', s=20) plt.title('Prediction after active learning') plt.show()可见,使用主动学习的方法让我们仅使用了25个点就拟合出1000个点生成的图像,大大节约了人工标记的成本。
参考链接: https://zhuanlan.zhihu.com/p/377045943
友情链接: 武汉网站建设