"일꾼이 일을 잘하려면 먼저 도구를 갈고 닦아야 한다." - 공자, 『논어』.
첫 장 > 프로그램 작성 > 소프트웨어 엔지니어를 위한 머신러닝

소프트웨어 엔지니어를 위한 머신러닝

2024-08-07에 게시됨
검색:775

Machine Learning for Software Engineers

이것이 가치 있다고 생각하시면 알려주시면 계속 진행하겠습니다!

1장 - 선형 모델

가장 간단하면서도 강력한 개념 중 하나는 선형 모델입니다.

ML의 주요 목표 중 하나는 데이터를 기반으로 예측하는 것입니다. 선형 모델은 기계 학습의 'Hello World'와 같습니다. 간단하지만 더 복잡한 모델을 이해하기 위한 기반을 형성합니다.

집값을 예측하는 모델을 만들어 보겠습니다. 이 예에서 출력은 예상되는 "주택 가격"이고 입력은 "sqft", "num_bedrooms" 등과 같습니다...

def prediction(sqft, num_bedrooms, num_baths):
    weight_1, weight_2, weight_3 = .0, .0, .0  
    home_price = weight_1*sqft, weight_2*num_bedrooms, weight_3*num_baths
    return home_price

각 입력에 대한 "가중치"를 확인할 수 있습니다. 이러한 가중치는 예측 뒤에 마법을 만들어내는 것입니다. 이 예제는 가중치가 0이므로 항상 0을 출력하므로 지루합니다.

이러한 가중치를 어떻게 찾을 수 있는지 알아봅시다.

가중치 찾기

가중치를 찾는 프로세스를 모델 "훈련"이라고 합니다.

  • 먼저 알려진 특성(입력)과 가격(출력)이 있는 주택 데이터세트가 필요합니다. 예를 들어:
data = [
    {"sqft": 1000, "bedrooms": 2, "baths": 1, "price": 200000},
    {"sqft": 1500, "bedrooms": 3, "baths": 2, "price": 300000},
    # ... more data points ...
]
  • 가중치를 업데이트하는 방법을 만들기 전에 예측이 얼마나 벗어났는지 알아야 합니다. 예측과 실제 값의 차이를 계산할 수 있습니다.
home_price = prediction(1000, 2, 1) # our weights are currently zero, so this is zero
actual_value = 200000

error = home_price - actual_value # 0 - 200000 we are way off. 
# let's square this value so we aren't dealing with negatives
error = home_price**2

이제 하나의 데이터 포인트에 대한 오차(오류)를 알 수 있는 방법이 있으므로 모든 데이터 포인트에 대한 평균 오류를 계산할 수 있습니다. 이를 일반적으로 평균 제곱 오류라고 합니다.

  • 마지막으로 평균 제곱 오차를 줄이는 방식으로 가중치를 업데이트합니다.

물론 임의의 숫자를 선택하고 진행하면서 최상의 값을 계속 저장할 수 있지만 이는 비효율적입니다. 그럼 다른 방법인 경사하강법을 살펴보겠습니다.

경사하강법

경사하강법은 모델에 가장 적합한 가중치를 찾는 데 사용되는 최적화 알고리즘입니다.

그라디언트는 각 가중치에 작은 변화를 가할 때 오류가 어떻게 변하는지 알려주는 벡터입니다.

사이드바 직관
언덕이 많은 풍경 위에 서 있다고 상상해 보세요. 목표는 가장 낮은 지점(최소 오류)에 도달하는 것입니다. 그라데이션은 항상 가장 가파른 오르막을 가리키는 나침반과 같습니다. 그래디언트 방향을 반대로 진행하여 가장 낮은 지점을 향해 나아갑니다.

작동 방식은 다음과 같습니다.

  1. 임의의 가중치(또는 0)로 시작합니다.
  2. 현재 가중치에 대한 오차를 계산합니다.
  3. 각 가중치에 대한 오차의 기울기(기울기)를 계산합니다.
  4. 오류를 줄이는 방향으로 작은 단계를 이동하여 가중치를 업데이트합니다.
  5. 오류가 크게 감소하지 않을 때까지 2~4단계를 반복합니다.

각 오류에 대한 기울기를 어떻게 계산하나요?

그라디언트를 계산하는 한 가지 방법은 가중치를 조금씩 이동하여 이것이 오류에 어떤 영향을 미치는지 확인하고 거기에서 어디로 이동해야 하는지 확인하는 것입니다.

def calculate_gradient(weight, data, feature_index, step_size=1e-5):
    original_error = calculate_mean_squared_error(weight, data)

    # Slightly increase the weight
    weight[feature_index]  = step_size
    new_error = calculate_mean_squared_error(weight, data)

    # Calculate the slope
    gradient = (new_error - original_error) / step_size

    # Reset the weight
    weight[feature_index] -= step_size

    return gradient

단계별 분석

  • 입력 매개변수:

    • 가중치: 모델의 현재 가중치 세트입니다.
    • 데이터: 주택 특징 및 가격에 대한 데이터세트입니다.
    • feature_index: 기울기를 계산하는 가중치(0은 평방피트, 1은 침실, 2는 욕실).
    • step_size: 가중치를 약간 변경하는 데 사용하는 작은 값(기본값은 1e-5 또는 0.00001).
  • 원래 오류 계산:

   original_error = calculate_mean_squared_error(weight, data)

먼저 현재 가중치를 사용하여 평균 제곱 오차를 계산합니다. 이것이 우리의 출발점입니다.

  • 무게를 약간 늘리세요:
   weight[feature_index]  = step_size

무게를 조금씩 늘립니다(step_size). 이를 통해 가중치의 작은 변화가 오류에 어떤 영향을 미치는지 확인할 수 있습니다.

  • 새 오류 계산:
   new_error = calculate_mean_squared_error(weight, data)

가중치를 약간 증가시켜 평균 제곱 오차를 다시 계산합니다.

  • 기울기(그라데이션) 계산:
   gradient = (new_error - original_error) / step_size

이것이 핵심 단계입니다. 우리는 "무게를 약간 늘렸을 때 오류가 얼마나 변했습니까?"라고 묻고 있습니다.

  • new_error > original_error인 경우 기울기는 양수입니다. 즉, 이 가중치를 늘리면 오류가 증가합니다.
  • new_error
  • 크기는 이 가중치의 변화에 ​​오류가 얼마나 민감한지 알려줍니다.

    • 무게 재설정:
   weight[feature_index] -= step_size

가중치를 변경하면 어떻게 되는지 테스트했기 때문에 가중치를 원래 값으로 되돌렸습니다.

  • 그라디언트 반환:
   return gradient

이 가중치에 대해 계산된 기울기를 반환합니다.

이것을 "수치적 기울기 계산" 또는 "유한차분법"이라고 합니다. 분석적으로 계산하는 대신 그래디언트를 근사화합니다.

가중치를 업데이트하자

이제 그래디언트가 있으므로 그래디언트를 빼서 가중치를 그래디언트의 반대 방향으로 밀 수 있습니다.

weights[i] -= gradients[i]

그라디언트가 너무 크면 가중치를 너무 많이 업데이트하여 쉽게 최소값을 초과할 수 있습니다. 이 문제를 해결하려면 그래디언트에 작은 숫자를 곱하면 됩니다:

learning_rate = 0.00001
weights[i] -= learning_rate*gradients[i]

모든 가중치에 대해 이를 수행하는 방법은 다음과 같습니다.

def gradient_descent(data, learning_rate=0.00001, num_iterations=1000):
    weights = [0, 0, 0]  # Start with zero weights

    for _ in range(num_iterations):
        gradients = [
            calculate_gradient(weights, data, 0), # sqft
            calculate_gradient(weights, data, 1), # bedrooms
            calculate_gradient(weights, data, 2)  # bathrooms
        ]

        # Update each weight
        for i in range(3):
            weights[i] -= learning_rate * gradients[i]

        if _ % 100 == 0:
            error = calculate_mean_squared_error(weights, data)
            print(f"Iteration {_}, Error: {error}, Weights: {weights}")

    return weights

마지막으로 가중치가 생겼습니다!

모델 해석

훈련된 가중치가 있으면 이를 사용하여 모델을 해석할 수 있습니다.

  • 'sqft'의 가중치는 평방피트당 가격 인상을 나타냅니다.
  • '침실'의 가중치는 추가 침실당 가격 인상을 나타냅니다.
  • '욕실'의 가중치는 추가 욕실당 가격 인상을 나타냅니다.

예를 들어 훈련된 가중치가 [100, 10000, 15000]인 경우 이는 다음을 의미합니다.

  • 1평방피트당 주택 가격에 $100가 추가됩니다.
  • 각 침실마다 주택 가격에 $10,000가 추가됩니다.
  • 욕실 하나당 집값에 $15,000가 추가됩니다.

선형 모델은 단순함에도 불구하고 기계 학습의 강력한 도구입니다. 이는 보다 복잡한 알고리즘을 이해하기 위한 기반을 제공하고 실제 문제에 대한 해석 가능한 통찰력을 제공합니다.

릴리스 선언문 이 글은 https://dev.to/akdevelop/machine-learning-for-software-engineers-2hid?1에서 복제됩니다.1 침해 내용이 있는 경우, [email protected]으로 연락하여 삭제하시기 바랍니다.
최신 튜토리얼 더>

부인 성명: 제공된 모든 리소스는 부분적으로 인터넷에서 가져온 것입니다. 귀하의 저작권이나 기타 권리 및 이익이 침해된 경우 자세한 이유를 설명하고 저작권 또는 권리 및 이익에 대한 증거를 제공한 후 이메일([email protected])로 보내주십시오. 최대한 빨리 처리해 드리겠습니다.

Copyright© 2022 湘ICP备2022001581号-3