본문 바로가기
728x90

Machine Learning9

[ML/DL] 로지스틱 회귀/분류 (Logistic Regresion/Classification) 안녕하세요 뚜디 입니다 이번 포스팅에서는 Logistic Regresion에 대해 알아보도록 하겠습니다. Classification Binary Classification (0:Positive / 1:negative) ※ Exam : Pass or Fail ※ Spam : Not Spam or Spam ※ Face : Real of Fake ※ Tumor : Not Malignant of Malignant Logistic VS Linear Logistic : 구분선을 통해 두 가지 케이스로 구분할 수 있는 데이터들이라고 할 수 있다. 예) 신발사이즈(270 / 285), 소규모기업(100명) 대기업(1000명) Linear : 데이터들이 연속적이고 즉, 새로운 데이터가 있더라도 이어지는 데이터 예측할수 .. 2022. 1. 21.
[ML/DL]다변수 선형 회귀 분석 Multi-variable Linear Regression(2) 안녕하세요 뚜디 입니다:) 다변수 선형 회귀(Multi-variable Linear Regression)를 tensorflow 코드로 어떻게 구현하는지 살펴보도록 하겠습니다. 변수(x1,x2,3)이므로 weight도 세개가 되는 hypothesis를 확인하실수 있습니다. x1,x2,x3 : 입력 데이터 / y : 출력 데이터 (정답,예측값) 를 통해 훈련한 다음에 나중에 새로운 데이터 x1,x2,x3가 왔을 때 어떤값이 나올지를 예측(y)를 하게됩니다. Multi-variable Linear Regression을 표현 import numpy as np import tensorflow as tf x1 = [73., 93., 89., 96., 37.] x2 = [80., 88., 91., 98., 66.] .. 2022. 1. 20.
[ML/DL] 다변수 선형 회귀 분석 Multi-variable Linear Regression 안녕하세요 뚜디 입니다:) 다변수 선형 회귀 분석 이번 포스팅에서는 변수가 하나가 아닌, 여러개의 변수를 사용하는 다변수 선형회귀에 대해 알아보도록 하겠습니다. Hypothesis 함수는 Wx+b 여기서 W는 weight b는 bias로 간단한 일차식으로 표현이 가능 (b는 생략가능) 이것이 가상함수 즉, 우리의 모델, 예측이라고 정의 Cost Function은 우리의 예측과 실제값의 차이 (Wx-y), 이 차이를 제곱한 것을 평균을 낸 것으로 cost를 정의 제곱하는 이유는 마이너스 값이 나오지 않게 하기 위함 cost를 최소화하는 W를 찾아가는 과정이 머신러닝의 핵심인 바로 학습과정이라 말할수 있다. Gradient descent는 cost가 최소화되는 W를 찾아주는 가장 대표적인 알고리즘 이전의 W.. 2022. 1. 19.
[ML/DL] 선형 회귀 분석 및 비용 최소화 방법(2) 안녕하세요 뚜디 입니다 :D 선형 회귀 분석 및 비용 최소화 방법(2) [ML/DL] 선형 회귀 분석 및 비용 최소화 방법 (tistory.com) [ML/DL] 선형 회귀 분석 및 비용 최소화 방법 안녕하세요 뚜디 입니다 :) 선형 회귀 분석 및 비용 최소화 방법 이번 포스팅에서는 cost를 최소화하는 구체적인 방법과 알고리즘을 조금 더 깊이 있게 알아봅시다. 1. 가설(Hypothesis)함수와 비용(co sindh718.tistory.com 이번 포스팅에서는 비용 최소화, Cost Minimize하는 것을 TensorFlow로 어떻게 구현하는지 알아보도록 하겠습니다. 이전 선형회귀 분석 및 비용 최소화 방법 포스팅을 보지않으셨다면 먼저 위 링크를 클릭해 확인하고 보시는것을 추천드립니다. 간략화된 가.. 2021. 10. 29.
[ML/DL] 선형 회귀 분석 및 비용 최소화 방법 안녕하세요 뚜디 입니다 :) 선형 회귀 분석 및 비용 최소화 방법 이번 포스팅에서는 cost를 최소화하는 구체적인 방법과 알고리즘을 조금 더 깊이 있게 알아봅시다. 1. 가설(Hypothesis)함수와 비용(cost)함수 가설 함수를 바탕으로 비용 함수를 정희했었습니다. 비용 함수는 가설 함수의 결과 와 실제 데이터의 차이를 제곱을 한 값을 모두 더해서 데이터 전체 갯수m으로 나눈 평균값을 비용함수로 정의했습니다. 이때, cost는 w와 b에 대한 함수이며, w와 b에 따라 결과가 달라지게 됩니다. cost값이 작을수록 가설이 실제와 일치하다는 뜻 입니다. 따럿, 데이터를 통해 cost가 최소화가 되는 w와 b를 찾는것이 목표라고 할 수 있습니다. 계산을 쉽게 하기 위해 가설 함수의 수식을 간략하게 만들.. 2021. 10. 19.
[ML/DL] 선형회귀(Linear Regression)를 TensorFlow로 구현하기 안녕하세요 뚜디 입니다:) Machine Learning에 대해서 간단하게 공부하고 있어 공부한 내용을 간단하게 공유하는 포스팅입니다. 선형회귀를 TensorFlow로 구현하기 이번 포스팅에서는 저번 포스팅(선형회귀(Linear Regression)의 개념)에 연장선입니다. 1. 이론적인 정의에서 TensorFlow 코드로 가상함수, 비용함수에 대해 정의해보도록 하겠습니다. 2. Cost가 최소화되도록 하는 w와 b를 찾는 minimization알고리즘에대해 알아보도록 하겠습니다. 먼저 그 전에 선형회귀의 개념을 보시지않으셨다면 아래 링크를 참고해주세요 [ML/DL] 선형회귀(Linear Regression)의 개념 (tistory.com) [ML/DL] 선형회귀(Linear Regression)의 개념.. 2021. 10. 18.
728x90