이것이 가치 있다고 생각하시면 알려주시면 계속 진행하겠습니다!
가장 간단하면서도 강력한 개념 중 하나는 선형 모델입니다.
ML의 주요 목표 중 하나는 데이터를 기반으로 예측하는 것입니다. 선형 모델은 기계 학습의 'Hello World'와 같습니다. 간단하지만 더 복잡한 모델을 이해하기 위한 기반을 형성합니다.
집값을 예측하는 모델을 만들어 보겠습니다. 이 예에서 출력은 예상되는 "주택 가격"이고 입력은 "sqft", "num_bedrooms" 등과 같습니다...
def prediction(sqft, num_bedrooms, num_baths): weight_1, weight_2, weight_3 = .0, .0, .0 home_price = weight_1*sqft, weight_2*num_bedrooms, weight_3*num_baths return home_price
각 입력에 대한 "가중치"를 확인할 수 있습니다. 이러한 가중치는 예측 뒤에 마법을 만들어내는 것입니다. 이 예제는 가중치가 0이므로 항상 0을 출력하므로 지루합니다.
이러한 가중치를 어떻게 찾을 수 있는지 알아봅시다.
가중치를 찾는 프로세스를 모델 "훈련"이라고 합니다.
data = [ {"sqft": 1000, "bedrooms": 2, "baths": 1, "price": 200000}, {"sqft": 1500, "bedrooms": 3, "baths": 2, "price": 300000}, # ... more data points ... ]
home_price = prediction(1000, 2, 1) # our weights are currently zero, so this is zero actual_value = 200000 error = home_price - actual_value # 0 - 200000 we are way off. # let's square this value so we aren't dealing with negatives error = home_price**2
이제 하나의 데이터 포인트에 대한 오차(오류)를 알 수 있는 방법이 있으므로 모든 데이터 포인트에 대한 평균 오류를 계산할 수 있습니다. 이를 일반적으로 평균 제곱 오류라고 합니다.
물론 임의의 숫자를 선택하고 진행하면서 최상의 값을 계속 저장할 수 있지만 이는 비효율적입니다. 그럼 다른 방법인 경사하강법을 살펴보겠습니다.
경사하강법은 모델에 가장 적합한 가중치를 찾는 데 사용되는 최적화 알고리즘입니다.
그라디언트는 각 가중치에 작은 변화를 가할 때 오류가 어떻게 변하는지 알려주는 벡터입니다.
사이드바 직관
언덕이 많은 풍경 위에 서 있다고 상상해 보세요. 목표는 가장 낮은 지점(최소 오류)에 도달하는 것입니다. 그라데이션은 항상 가장 가파른 오르막을 가리키는 나침반과 같습니다. 그래디언트 방향을 반대로 진행하여 가장 낮은 지점을 향해 나아갑니다.
작동 방식은 다음과 같습니다.
각 오류에 대한 기울기를 어떻게 계산하나요?
그라디언트를 계산하는 한 가지 방법은 가중치를 조금씩 이동하여 이것이 오류에 어떤 영향을 미치는지 확인하고 거기에서 어디로 이동해야 하는지 확인하는 것입니다.
def calculate_gradient(weight, data, feature_index, step_size=1e-5): original_error = calculate_mean_squared_error(weight, data) # Slightly increase the weight weight[feature_index] = step_size new_error = calculate_mean_squared_error(weight, data) # Calculate the slope gradient = (new_error - original_error) / step_size # Reset the weight weight[feature_index] -= step_size return gradient
단계별 분석
입력 매개변수:
원래 오류 계산:
original_error = calculate_mean_squared_error(weight, data)
먼저 현재 가중치를 사용하여 평균 제곱 오차를 계산합니다. 이것이 우리의 출발점입니다.
weight[feature_index] = step_size
무게를 조금씩 늘립니다(step_size). 이를 통해 가중치의 작은 변화가 오류에 어떤 영향을 미치는지 확인할 수 있습니다.
new_error = calculate_mean_squared_error(weight, data)
가중치를 약간 증가시켜 평균 제곱 오차를 다시 계산합니다.
gradient = (new_error - original_error) / step_size
이것이 핵심 단계입니다. 우리는 "무게를 약간 늘렸을 때 오류가 얼마나 변했습니까?"라고 묻고 있습니다.
크기는 이 가중치의 변화에 오류가 얼마나 민감한지 알려줍니다.
weight[feature_index] -= step_size
가중치를 변경하면 어떻게 되는지 테스트했기 때문에 가중치를 원래 값으로 되돌렸습니다.
return gradient
이 가중치에 대해 계산된 기울기를 반환합니다.
이것을 "수치적 기울기 계산" 또는 "유한차분법"이라고 합니다. 분석적으로 계산하는 대신 그래디언트를 근사화합니다.
이제 그래디언트가 있으므로 그래디언트를 빼서 가중치를 그래디언트의 반대 방향으로 밀 수 있습니다.
weights[i] -= gradients[i]
그라디언트가 너무 크면 가중치를 너무 많이 업데이트하여 쉽게 최소값을 초과할 수 있습니다. 이 문제를 해결하려면 그래디언트에 작은 숫자를 곱하면 됩니다:
learning_rate = 0.00001 weights[i] -= learning_rate*gradients[i]
모든 가중치에 대해 이를 수행하는 방법은 다음과 같습니다.
def gradient_descent(data, learning_rate=0.00001, num_iterations=1000): weights = [0, 0, 0] # Start with zero weights for _ in range(num_iterations): gradients = [ calculate_gradient(weights, data, 0), # sqft calculate_gradient(weights, data, 1), # bedrooms calculate_gradient(weights, data, 2) # bathrooms ] # Update each weight for i in range(3): weights[i] -= learning_rate * gradients[i] if _ % 100 == 0: error = calculate_mean_squared_error(weights, data) print(f"Iteration {_}, Error: {error}, Weights: {weights}") return weights
마지막으로 가중치가 생겼습니다!
훈련된 가중치가 있으면 이를 사용하여 모델을 해석할 수 있습니다.
예를 들어 훈련된 가중치가 [100, 10000, 15000]인 경우 이는 다음을 의미합니다.
선형 모델은 단순함에도 불구하고 기계 학습의 강력한 도구입니다. 이는 보다 복잡한 알고리즘을 이해하기 위한 기반을 제공하고 실제 문제에 대한 해석 가능한 통찰력을 제공합니다.
부인 성명: 제공된 모든 리소스는 부분적으로 인터넷에서 가져온 것입니다. 귀하의 저작권이나 기타 권리 및 이익이 침해된 경우 자세한 이유를 설명하고 저작권 또는 권리 및 이익에 대한 증거를 제공한 후 이메일([email protected])로 보내주십시오. 최대한 빨리 처리해 드리겠습니다.
Copyright© 2022 湘ICP备2022001581号-3