달력

11

« 2018/11 »

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
2018. 11. 23. 14:39

[2강] 기본단위와 파생단위 물리학개론2018. 11. 23. 14:39

물리량(Physical properties)에서 기본단위(Basic unit)는 표준(SI)단위로서 MKS(Meter-Kilogram-Second) 단위계(Unit System)를 사용한다. 

길이(length)의 단위: [l]=m
질량(mass)의 단위:   [m]=Kg
시간(time): [t]=sec

파생단위(derivative unit)는 기본단위의 조합으로 파생된 단위를 말한다. 예를 들면 속도(v, velocity)는 거리(s)의 시간에  대한 미분( v=ds/dt )이므로 그 단위는 다음과 같다. 

속도의 단위: [v]=m/sec

같은 방식으로 속도의 시간에 대한 미분(a=dv/dt)인 가속도(acceleration)의 단위는 다음과 같다. 

가속도의 단위:  [a]=m/sec2

힘(force)은 뉴튼(Newton)의 운동방정식(equation of motion)을 통해 정의하기를 다음과 같이 정의 된다. 

F=ma

따라서, 힘의 단위는 다음과 같다. 

힘의 단위: [F]=Kg·m/sec
2

그리고 이 힘의 단위를 힘을 발견한 아이작뉴튼을 기리기 위해 뉴튼(N)이라 부른다. 

힘의 단위: [F]=N

[예제1] 어떤 질량(m=2.5Kg)이 가속도 4m/sec
2으로 운동하는데 필요한 힘은? (답: 10N)
[예제2] 3Kg의 질량이 15N의 힘을 받았다. 이 힘으로 인한 질량의 가속도는? (답: 5m/sec
2)
[예제3] 12N의 힘을 받은 질량이 3m/sec
2의 가속운동을 하였다. 이 질량은? (답: 4Kg)

[잠깐 알아보기] 벡터(vector)와 스칼라(scalar)
모든 물리량은 벡터량과 스칼라량으로 나뉜다. 속도(velocity)의 경우 방향(direction)과 크기(magnitude)를 가지므로 벡터량이고, 속력(speed)은 크기만을 가지므로 스칼량이다. 







[관련글 보기]


'물리학개론' 카테고리의 다른 글

[1강] 무게중심 (변리사 자연과학 기출)  (0) 2018.11.23
:
Posted by 고경철(kckoh)

무게 중심(Center of weight)은 질량중심(Center of mass)라고도 한다. 또는 밀도가 일정한 경우에는 면적중심(Center of area)라고도 한다. 놀이터의 시소를 생각해 보자. 무게가 같은 두사람이 양쪽에 앉으면, 시소의 회전중심이 무게중심이 된다. 이때 밸런스 공식은 다음과 같다. 

m1x1=m2x2

여기서 x1과 x2는 무게중심에서의 앉은 두사람까지의 거리이다. m1과 m2는 각각의 질량이다. 그런데, 시소의 회전중심에 좌표계의 원점을 잡으면, 왼쪽에 앉은 사람(x1)의 위치는 -x1으로 표시된다. 따라서 이를 고려하여 위의 공식을 다시쓰면, 다음과 같다. 
m1x1+m2x2=0

이제 질량중심이 원점에 있지 않는 경우를 생각해 보자 이런 경우 질량중심의 좌표를 xc라 하면 다음과 같은 평형식이 성립한다. 

m1x1+m2x2=(m1+m2)xc

따라서, 질량중심의 좌표는 다음과 같다. 

xc=(m1x1+m2x2)/(m1+m2)

이제 이를 2차원으로 확대해 본다. 다음 그림과 같이 2차원 평면상에 n개의 질량이 분포되어 있을때, 질량중심의 좌표는 다음과 같이 계산된다. 

xc=(m1x1+...mnxn)/(m1+..+mn)
yc=(m1y1+...mnyn)/(m1+..+mn)

이러한 공식을 근거로 2018년도 55회 1차 자연과학개론 A형 1번 문제를 해결할 수 있다. 







[풀이]

B의 부분을 질량중심(2,6)에 있는 작은 정사각형(질량=m)과,  질량중심(6,4)에 있는 직사각형(질량=2m)으로 분해할 때, B의 질량중심은 다음과 같이 계산될 수 있다. 

xc=(2m+6x2m)/(m+2m)=14/3
yc=(6m+4x2m)/(m+2m)=14/3

따라서 정담은 (4)이다.


'물리학개론' 카테고리의 다른 글

[2강] 기본단위와 파생단위  (0) 2018.11.23
:
Posted by 고경철(kckoh)
2018. 11. 23. 14:23

RA vs RL 인공지능로봇/머신러닝강좌2018. 11. 23. 14:23

Regression Algorithm


통계학에서 Regression Algorithm이란 다른 변수에 영향을 주는 원인에 해당하는 독립변수와 독립변수로 인해서 영향을 받는 결과에 해당하는 종속변수가 존재할 때, 두 변수들 사의의 관계를 구체적인 함수의 식으로 정의하고 새로운 독립변수가 주어졌을때, 이에 해당하는 종속변수를 예측하는 알고리즘이다. 이때 독립변수와 종속변수가 각각 하나일때는 Simple Regression Algorithm이라고 하고, 종속변수가 1개이고, 독립변수가 2개이상일 경우 Multiple Regression Algorithm이라고 한다. 

SVR(Support Vector Regression)도 Regression Alogorithm의 일종이다. SVR은 SVM(Support Vector Machine)의 일반화된 방법이다. SVM은 기계학습의 하나로 패턴인식, 자료분석을 위한 Supervised Learning(SL)의 일종으로 주로 두 Categories로 나뉘는 데이터의 집합이 주어졌을 때, 어떤 category에 속할지 판단하는 알고리즘이다. SVM은 선형분류는 물론 Kernel Trick을 사용하여 비선형 분류에도 사용가능하다. SVM은 데이터를 분류하는 기준이 되는 Hyper plane을 선택하는데 두 클래스 사이에 가장 큰 분류 마진을 갖는 Hyper Plane을 선핵하는 방법이 사용된다. 이 때 Support Vector는 Hyper plane에 가장 가까운 데이터로 정의된다. 







SVM은 데이터를 두개의 클래스로 분류하는 문제에 주로 사용되지만, 임의 실수값을 예측할 있는 SVR로 확장될 수 있다.







강화학습(Reinforcement Learning, RL) 알고리즘은 기계학습의 일종으로, 지도학습(Supervised Learning, SL)과 달리 입력에 대한 출력이 쌍으로 주어지지 않아 하나의 에피스도내의 행동들이 올바른 행동인지 판단할 정의가 없어 각각의 행동에 대해 즉각적인 학습이 이루어 지지 않는다. 이 때문에 지도학습이 Offline Learning이라면  강화학습은 Online Learning에 초점을 맞춘다. 이 과정은 새로운 Policy를 학습하기 위해서 행동을 탐색하는 Exploration과 기존에 학습했던 Policy로 행동을 선택하는 Exploitation의 균형을 통해 이루어진다. 강화학습이란 정의된 환경(Environment)안에서 에이전트(Agent)가 현재의 상태(State)를 인식하여, 선택가능한 행동(Action)들 중 보상(Reward)을 최대화하는 행동 또는 행동 순서를 선택하는 방법인 정책(Policy)를 학습하는 방법이다. 강화학습 알고리즘을 통해 해결할 수 있는 문제는 제어, 시뮬레이션 기반 최적화, 다중 에이전트 시스템, 통계학, 유전 알고리즘 등 매우 포괄적이다. 최적화 알고리즘과 비슷한 목표를 가지고 연구되나, 최적화 알고리즘에서는 최적해의 존재와 특성에 초점을 맞추지만, 강화학습 알고리즘의 경우 학습과 근사의 측면에서 문제를 접근한다. 
 
강화학습 알고리즘은 Markov Decision Process(MDP)형태로 환경이 주어진다. MDP현태로 주어진 문제는 Dynamic Programming(DP) 알고리즘으로 해결이 가능하다. DP에서는 환경에 대한 정보를 모두 알고 있어 보상을 최대화하는 방법을 Deterministic하게 결정할 수 있다. 반면 RL에서는 환경에 대한 정보를 모두 알 수 없는 상황에서 보상을 최대화하는 정책을 Deterministic하게 결정할 수 없는 경우 주로 사용된다. 

알파고의 경우 DQN(Deep Q Network)을 기초로 하여 RL알고리즘에 딥러닝 방법을 접목시킨 강화학습알고리즘을 사용하였다. 하지만 DQN알고리즘은 불연속적인 저차원 액션공간(Low Dimensional Action Space)에서만 다룰 수 있는 한계점이 있다. 대부분 제어 문제들에서는 High Dimensional Action Space를 다루어야 한다. 연속공간을 임의로 Discretize하게 되면 Curse of Dimensionality에 빠질 수 있다. 이를 해결하기 위해 고안된 Deep Deterministic Policy Gradient(DDPG) 알고리즘은 연속적인 High dimensional action space에 사용할 수 있다. DDPG는 기본적으로 Deterministic Policy Gradient(DPG) 알고리즘에 기초한다. DQN에서 사용된 아이디어인 Replay Buffer와 Target Q network을 사용한다. 







[관련글 보기]


2018/11/23 - RA vs RL

2018/11/23 - GAN(Generative Adversarial Network) 완전 정복하기

2018/11/23 - DCGAN

2018/11/23 - 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano

2018/11/23 - 주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서


:
Posted by 고경철(kckoh)










[관련글 보기]


:
Posted by 고경철(kckoh)
2018. 11. 23. 14:11

DCGAN 인공지능로봇/머신러닝강좌2018. 11. 23. 14:11

지적 대화를 위한 깊고 넓은 딥러닝 (Feat. TensorFlow) - PyCon APAC 2016


강사: 김태훈
Generative Model, Unsupervised Learning, tesnorflow, CNN구조, Deconvolution NN의 구조, 적대적 학습기법 등
슬라이드:  https://www.slideshare.net/carpedm20/...
동영상: https://www.youtube.com/watch?v=soJ-wDOSCf4
 
평점: ★★★★★





[관련글 보기]

2018/11/23 - [인공지능로봇/머신러닝강좌] - 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano

2018/11/23 - [인공지능로봇/머신러닝강좌] - 주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서


:
Posted by 고경철(kckoh)

김도형: 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano - PyCon APAC 2016





감상후기: ARMA모델, 칼만필터, 시계열과 회귀분석, 증권패턴, 데이터분석, 예측 등에 대한 전반적인 방법론, Python코드들, 텐서플로우는 소잡는무기 등 


평점: ★★☆


:
Posted by 고경철(kckoh)

김대권
슬라이드: https://speakerdeck.com/nacyot/jupiteo-paisseon-falseteubug-paisseoneul-neomeo
동영상: https://www.youtube.com/watch?v=VbbXUKigVfs


후기: iPython이 왜 시작되었는지, 웹인터페스의 개념, 클라이언트와 서버, 커널과 멀티커널, REPL의 개념, Jupyter 등을 역사적으로 이해할 수 있는 동영상


평점: ★






:
Posted by 고경철(kckoh)