목록ML (2)
dmswl

리뷰한 코드는 월간 데이콘 신용카드 사기 거래 탐지 AI 경진대회의 private 3위, MCD, LR, Catboost 코드 입니다. 해당 조는 Classification 모델로 lr, catboost를 앙상블 하여 진행하였습니다. def seed_everything(seed: int = 42): random.seed(seed) np.random.seed(seed) os.environ["PYTHONHASHSEED"] = str(seed) tf.random.set_seed(seed) seed_everything(42) 먼저, seed_everything()함수를 이용해 랜덤 시드를 고정해주었습니다. 그 후 MinCovDet(MCD)을 사용하여 라벨링을 진행하였는데, 여기서 MCD란 최소 공분산 결정자로 ..

1. Gradient Descent 알고리즘 vs Normal Equation Gradient Descent 알고리즘은 미분 값을 이용하여 반복적으로 β를 갱신하면서 최적의 β를 찾는 과정임. 따라서 반복적으로 연산이 이뤄진다는 것이 Gradient Descent 알고리즘의 단점임. But, Normal Equation은 한번에 β를 구할 수 있음. 조건 : 데이터가 실수일 때 데이터가 n+1차원일 때 비용함수 J를 모든 β에 대해 편미분하여 한번의 연산으로 β를 알아내는 과정. 2. Normal Equation 증명 (추후 작성 예정) 3. 파이썬으로 실습 먼저, 배열 합치는 concatenate 메소드를 설명하고자 한다. concatenate는 선택한 축(axis)의 방향으로 행렬을 연결해주는 메소드..