기본 지도 학습 알고리즘들선형 회귀 (Linear Regression)선형 회귀 경사 하강법 구현하기

Q

경사하강 횟수의 차이 (200번 vs 250번 vs 400 vs 1000번)

조회 1065

좋아요 3

2020년 8월 1일




A
2개의 답변이 있어요



2020년 8월 3일



2021년 9월 23일

댓글 1

2021년 9월 23일
본문에 코드를 올렸는데 에러가 나서 댓글에 올립니다.

a = []
b = []
def gradient_descent(theta_0, theta_1, x, y, iterations, alpha):
"""주어진 theta_0, theta_1 변수들을 경사 하강를 하면서 업데이트 해주는 함수"""
for _ in range(iterations): # 정해진 번만큼 경사 하강을 한다
error = prediction_difference(theta_0, theta_1, x, y) # 예측값들과 입력 변수들의 오차를 계산
# 코드를 쓰세요
theta_0 = theta_0 - alpha * error.mean()
theta_1 = theta_1 - alpha * (error * x).mean()
a.append(theta_0) # theta_0 을 a에 list로 생성
b.append(theta_1)
return theta_0, theta_1

.
.
.

# 학습률 0.1로 200번 경사 하강
theta_0, theta_1 = gradient_descent(theta_0, theta_1, house_size, house_price, 500, 0.1)

plt.plot(a)
plt.plot(b)
plt.show()

(주) 코드잇

대표강영훈

개인정보보호책임자강영훈

이메일support@codeit.kr

사업자 번호313-86-00797

통신판매업제 2019-서울중구-1034 호

주소서울특별시 중구 청계천로 100 시그니쳐타워 동관 10층 코드잇