이 뻔할 것 같은 것을 기록으로 남기는 이유는 명령어를 올바르게 입력하기 위해서이다. 통상적으로 insert, delete, select 같은 경우 스키마.테이블 이런 식으로 꼬박꼬박 써주고 있다. 하지만 이름을 변경할 때에는 한 번만 써주어야 한다.
ALTER TABLE cdm.measurement2 RENAME TO measurement
이 뻔할 것 같은 것을 기록으로 남기는 이유는 명령어를 올바르게 입력하기 위해서이다. 통상적으로 insert, delete, select 같은 경우 스키마.테이블 이런 식으로 꼬박꼬박 써주고 있다. 하지만 이름을 변경할 때에는 한 번만 써주어야 한다.
ALTER TABLE cdm.measurement2 RENAME TO measurement
컴퓨터와 관련된 인물에 대하여 적당히 시대 순으로 언급하고 있다.
불 대수, 칸토어의 무한대, 힐베르트, 괴델, 튜링, 노이만 등.
일부 개념들을 이해하기 쉽게 설명한 것은 좋은 것 같다.
저자인 제임스 리카즈 (James Rickards)는 1998년 전 세계적으로 외환 위기를 몰고온 LTCM의 고위급 임원(?)으로 근무한 전적이 있는 사람이다. 즉, 이 시기 IMF 위기를 겪은 우리 나라를 포함한 여러 나라에 심각한 영향을 미친 행위를 한 사람이다. 이 사람이 이후에 개과천선을 했는지, 여러 책을 통하여 앞으로의 경제 위기에 대한 주장을 하고 있다. 이 책에서는 현재 경제 관료들이 다가올 위기에 너무 안일하게 대응을 하고 있으며, 경제 엘리트들은 숨어서 다음 위기를 극복할 수 있는 방안을 준비중이라는 이야기를 한다.
여러 주장을 하고 있으나 좀 정리를 해보면 다음과 같다.
SGD건 Adam이건, 다른 것들이건 동작은 잘한다고 알려져 있다. 하지만, Adam이 왠만하면 먹히는 것이라고 하니 Adam을 이용해 보기로 한다.
초보자 수준에서 SGD와 Adam의 가장 큰 차이는 학습률을 직접 조절하는 부분이 있는지에 대한 것일 것이다. SGD는 학습률 감소 부분을 설정해 주는 부분(scheduler)이 있어야 하지만, Adam에서는 없어도 된다. PyTorch에서 제공하는 Adam은 기본 값이 지정되어 있기 때문에, 별도로 입력해 주지 않아도 된다.
https://pytorch.org/docs/stable/optim.html
torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)
원래 학습 부분 코드에서 scheduler 부분을 주석 처리하여 학습시키면 된다.