」工欲善其事,必先利其器。「—孔子《論語.錄靈公》
首頁 > 程式設計 > 軟體工程師的機器學習

軟體工程師的機器學習

發佈於2024-08-07
瀏覽:477

Machine Learning for Software Engineers

如果您觉得这篇文章有价值,请告诉我,我会继续前进!

第 1 章 - 线性模型

最简单但强大的概念之一是线性模型。

在机器学习中,我们的主要目标之一是根据数据进行预测。 线性模型就像机器学习的“Hello World”——它很简单,但却构成了理解更复杂模型的基础。

让我们建立一个模型来预测房价。在此示例中,输出是预期的“房价”,您的输入将是“sqft”、“num_bedrooms”等...

def prediction(sqft, num_bedrooms, num_baths):
    weight_1, weight_2, weight_3 = .0, .0, .0  
    home_price = weight_1*sqft, weight_2*num_bedrooms, weight_3*num_baths
    return home_price

您会注意到每个输入的“权重”。这些权重创造了预测背后的魔力。这个例子很无聊,因为权重为零,所以它总是输出零。

那么让我们看看如何找到这些权重。

寻找权重

寻找权重的过程称为“训练”模型。

  • 首先,我们需要一个具有已知特征(输入)和价格(输出)的房屋数据集。例如:
data = [
    {"sqft": 1000, "bedrooms": 2, "baths": 1, "price": 200000},
    {"sqft": 1500, "bedrooms": 3, "baths": 2, "price": 300000},
    # ... more data points ...
]
  • 在我们创建更新权重的方法之前,我们需要知道我们的预测有多偏离。我们可以计算我们的预测和实际值之间的差异。
home_price = prediction(1000, 2, 1) # our weights are currently zero, so this is zero
actual_value = 200000

error = home_price - actual_value # 0 - 200000 we are way off. 
# let's square this value so we aren't dealing with negatives
error = home_price**2

现在我们有一种方法可以知道一个数据点的偏差(误差)有多大,我们可以计算所有数据点的平均误差。这通常称为均方误差。

  • 最后,以减少均方误差的方式更新权重。

当然,我们可以选择随机数并在进行过程中不断保存最佳值,但这效率很低。因此,让我们探索一种不同的方法:梯度下降。

梯度下降

梯度下降是一种优化算法,用于为我们的模型找到最佳权重。

梯度是一个向量,它告诉我们当我们对每个权重进行微小改变时误差如何变化。

侧边栏直觉
想象一下站在丘陵地貌上,您的目标是到达最低点(误差最小)。梯度就像一个指南针,总是指向最陡的上升点。通过逆梯度方向,我们正在向最低点迈进。

其工作原理如下:

  1. 从随机权重(或零)开始。
  2. 计算当前权重的误差。
  3. 计算每个权重的误差梯度(斜率)。
  4. 通过向减少误差的方向移动一小步来更新权重。
  5. 重复步骤 2-4,直到误差停止显着减小。

我们如何计算每个误差的梯度?

计算梯度的一种方法是对权重进行小幅调整,看看这对我们的误差有何影响,并看看我们应该从哪里移动。

def calculate_gradient(weight, data, feature_index, step_size=1e-5):
    original_error = calculate_mean_squared_error(weight, data)

    # Slightly increase the weight
    weight[feature_index]  = step_size
    new_error = calculate_mean_squared_error(weight, data)

    # Calculate the slope
    gradient = (new_error - original_error) / step_size

    # Reset the weight
    weight[feature_index] -= step_size

    return gradient

逐步细分

  • 输入参数:

    • 权重:我们模型的当前权重集。
    • 数据:我们的房屋特征和价格数据集。
    • feature_index:我们计算梯度的权重(0 表示平方英尺,1 表示卧室,2 表示浴室)。
    • step_size:我们用来稍微改变权重的一个小值(默认为1e-5或0.00001)。
  • 计算原始误差:

   original_error = calculate_mean_squared_error(weight, data)

我们首先用当前权重计算均方误差。这给了我们我们的起点。

  • 稍微增加重量
   weight[feature_index]  = step_size

我们稍微增加权重(step_size)。这使我们能够看到重量的微小变化如何影响我们的误差。

  • 计算新错误
   new_error = calculate_mean_squared_error(weight, data)

我们稍微增加权重,再次计算均方误差。

  • 计算斜率(梯度)
   gradient = (new_error - original_error) / step_size

这是关键的一步。我们要问:“当我们稍微增加重量时,误差变化了多少?”

  • 如果 new_error > Original_error,则梯度为正,这意味着增加此权重会增加误差。
  • 如果 new_error
  • 大小告诉我们误差对该权重的变化有多敏感。

    • 重置重量
   weight[feature_index] -= step_size

我们将权重恢复到其原始值,因为我们正在测试如果更改它会发生什么。

  • 返回渐变
   return gradient

我们返回该权重的计算梯度。

这称为“数值梯度计算”或“有限差分法”。我们近似梯度而不是分析计算它。

让我们更新权重

现在我们有了梯度,我们可以通过减去梯度来将权重推向梯度的相反方向。

weights[i] -= gradients[i]

如果我们的梯度太大,我们很容易通过更新我们的权重来超过我们的最小值。为了解决这个问题,我们可以将梯度乘以一些小数:

learning_rate = 0.00001
weights[i] -= learning_rate*gradients[i]

这就是我们如何处理所有权重的方法:

def gradient_descent(data, learning_rate=0.00001, num_iterations=1000):
    weights = [0, 0, 0]  # Start with zero weights

    for _ in range(num_iterations):
        gradients = [
            calculate_gradient(weights, data, 0), # sqft
            calculate_gradient(weights, data, 1), # bedrooms
            calculate_gradient(weights, data, 2)  # bathrooms
        ]

        # Update each weight
        for i in range(3):
            weights[i] -= learning_rate * gradients[i]

        if _ % 100 == 0:
            error = calculate_mean_squared_error(weights, data)
            print(f"Iteration {_}, Error: {error}, Weights: {weights}")

    return weights

最后,我们有了权重!

解释模型

一旦我们有了经过训练的权重,我们就可以用它们来解释我们的模型:

  • “平方英尺”的权重代表每平方英尺的价格上涨。
  • “卧室”的权重代表每增加一间卧室的价格上涨。
  • “浴室”的重量代表每增加一间浴室的价格上涨。

例如,如果我们训练的权重是[100, 10000, 15000],则意味着:

  • 每平方英尺房价增加 100 美元。
  • 每间卧室使房价增加 10,000 美元。
  • 每间浴室使房价增加 15,000 美元。

线性模型尽管简单,但却是机器学习中的强大工具。它们为理解更复杂的算法奠定了基础,并为现实世界的问题提供了可解释的见解。

版本聲明 本文轉載於:https://dev.to/akdevelop/machine-learning-for-software-engineers-2hid?1如有侵犯,請聯絡[email protected]刪除
最新教學 更多>

免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。

Copyright© 2022 湘ICP备2022001581号-3