如果您觉得这篇文章有价值,请告诉我,我会继续前进!
最简单但强大的概念之一是线性模型。
在机器学习中,我们的主要目标之一是根据数据进行预测。 线性模型就像机器学习的“Hello World”——它很简单,但却构成了理解更复杂模型的基础。
让我们建立一个模型来预测房价。在此示例中,输出是预期的“房价”,您的输入将是“sqft”、“num_bedrooms”等...
def prediction(sqft, num_bedrooms, num_baths): weight_1, weight_2, weight_3 = .0, .0, .0 home_price = weight_1*sqft, weight_2*num_bedrooms, weight_3*num_baths return home_price
您会注意到每个输入的“权重”。这些权重创造了预测背后的魔力。这个例子很无聊,因为权重为零,所以它总是输出零。
那么让我们看看如何找到这些权重。
寻找权重的过程称为“训练”模型。
data = [ {"sqft": 1000, "bedrooms": 2, "baths": 1, "price": 200000}, {"sqft": 1500, "bedrooms": 3, "baths": 2, "price": 300000}, # ... more data points ... ]
home_price = prediction(1000, 2, 1) # our weights are currently zero, so this is zero actual_value = 200000 error = home_price - actual_value # 0 - 200000 we are way off. # let's square this value so we aren't dealing with negatives error = home_price**2
现在我们有一种方法可以知道一个数据点的偏差(误差)有多大,我们可以计算所有数据点的平均误差。这通常称为均方误差。
当然,我们可以选择随机数并在进行过程中不断保存最佳值,但这效率很低。因此,让我们探索一种不同的方法:梯度下降。
梯度下降是一种优化算法,用于为我们的模型找到最佳权重。
梯度是一个向量,它告诉我们当我们对每个权重进行微小改变时误差如何变化。
侧边栏直觉
想象一下站在丘陵地貌上,您的目标是到达最低点(误差最小)。梯度就像一个指南针,总是指向最陡的上升点。通过逆梯度方向,我们正在向最低点迈进。
其工作原理如下:
我们如何计算每个误差的梯度?
计算梯度的一种方法是对权重进行小幅调整,看看这对我们的误差有何影响,并看看我们应该从哪里移动。
def calculate_gradient(weight, data, feature_index, step_size=1e-5): original_error = calculate_mean_squared_error(weight, data) # Slightly increase the weight weight[feature_index] = step_size new_error = calculate_mean_squared_error(weight, data) # Calculate the slope gradient = (new_error - original_error) / step_size # Reset the weight weight[feature_index] -= step_size return gradient
逐步细分
输入参数:
计算原始误差:
original_error = calculate_mean_squared_error(weight, data)
我们首先用当前权重计算均方误差。这给了我们我们的起点。
weight[feature_index] = step_size
我们稍微增加权重(step_size)。这使我们能够看到重量的微小变化如何影响我们的误差。
new_error = calculate_mean_squared_error(weight, data)
我们稍微增加权重,再次计算均方误差。
gradient = (new_error - original_error) / step_size
这是关键的一步。我们要问:“当我们稍微增加重量时,误差变化了多少?”
大小告诉我们误差对该权重的变化有多敏感。
weight[feature_index] -= step_size
我们将权重恢复到其原始值,因为我们正在测试如果更改它会发生什么。
return gradient
我们返回该权重的计算梯度。
这称为“数值梯度计算”或“有限差分法”。我们近似梯度而不是分析计算它。
现在我们有了梯度,我们可以通过减去梯度来将权重推向梯度的相反方向。
weights[i] -= gradients[i]
如果我们的梯度太大,我们很容易通过更新我们的权重来超过我们的最小值。为了解决这个问题,我们可以将梯度乘以一些小数:
learning_rate = 0.00001 weights[i] -= learning_rate*gradients[i]
这就是我们如何处理所有权重的方法:
def gradient_descent(data, learning_rate=0.00001, num_iterations=1000): weights = [0, 0, 0] # Start with zero weights for _ in range(num_iterations): gradients = [ calculate_gradient(weights, data, 0), # sqft calculate_gradient(weights, data, 1), # bedrooms calculate_gradient(weights, data, 2) # bathrooms ] # Update each weight for i in range(3): weights[i] -= learning_rate * gradients[i] if _ % 100 == 0: error = calculate_mean_squared_error(weights, data) print(f"Iteration {_}, Error: {error}, Weights: {weights}") return weights
最后,我们有了权重!
一旦我们有了经过训练的权重,我们就可以用它们来解释我们的模型:
例如,如果我们训练的权重是[100, 10000, 15000],则意味着:
线性模型尽管简单,但却是机器学习中的强大工具。它们为理解更复杂的算法奠定了基础,并为现实世界的问题提供了可解释的见解。
免责声明: 提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发到邮箱:[email protected] 我们会第一时间内为您处理。
Copyright© 2022 湘ICP备2022001581号-3