[181204] 4차산업혁명과 로봇전문기업의 성공사례 분석 고경철 입니다./강연영상2018. 12. 5. 00:21
'고경철 입니다. > 강연영상' 카테고리의 다른 글
[6/28/2019] 로봇고 마을주민 아카데미 (0) | 2019.07.07 |
---|---|
[181115] 2018 스마트 팩토리 HR Insight 세미나 (0) | 2018.11.15 |
[180928] 4차산업혁명시대의 교육혁신방향 (0) | 2018.11.08 |
[6/28/2019] 로봇고 마을주민 아카데미 (0) | 2019.07.07 |
---|---|
[181115] 2018 스마트 팩토리 HR Insight 세미나 (0) | 2018.11.15 |
[180928] 4차산업혁명시대의 교육혁신방향 (0) | 2018.11.08 |
물리량(Physical properties)에서 기본단위(Basic unit)는 표준(SI)단위로서 MKS(Meter-Kilogram-Second) 단위계(Unit System)를 사용한다.
길이(length)의 단위: [l]=m
질량(mass)의 단위: [m]=Kg
시간(time): [t]=sec
파생단위(derivative unit)는 기본단위의 조합으로 파생된 단위를 말한다. 예를 들면 속도(v, velocity)는 거리(s)의 시간에 대한 미분( v=ds/dt )이므로 그 단위는 다음과 같다.
속도의 단위: [v]=m/sec
같은 방식으로 속도의 시간에 대한 미분(a=dv/dt)인 가속도(acceleration)의 단위는 다음과 같다.
가속도의 단위: [a]=m/sec2
힘(force)은 뉴튼(Newton)의 운동방정식(equation of motion)을 통해 정의하기를 다음과 같이 정의 된다.
F=ma
따라서, 힘의 단위는 다음과 같다.
힘의 단위: [F]=Kg·m/sec2
그리고 이 힘의 단위를 힘을 발견한 아이작뉴튼을 기리기 위해 뉴튼(N)이라 부른다.
힘의 단위: [F]=N
[예제1] 어떤 질량(m=2.5Kg)이 가속도 4m/sec2으로 운동하는데 필요한 힘은? (답: 10N)
[예제2] 3Kg의 질량이 15N의 힘을 받았다. 이 힘으로 인한 질량의 가속도는? (답: 5m/sec2)
[예제3] 12N의 힘을 받은 질량이 3m/sec2의 가속운동을 하였다. 이 질량은? (답: 4Kg)
[잠깐 알아보기] 벡터(vector)와 스칼라(scalar)
모든 물리량은 벡터량과 스칼라량으로 나뉜다. 속도(velocity)의 경우 방향(direction)과 크기(magnitude)를 가지므로 벡터량이고, 속력(speed)은 크기만을 가지므로 스칼량이다.
[1강] 무게중심 (변리사 자연과학 기출) (0) | 2018.11.23 |
---|
무게 중심(Center of weight)은 질량중심(Center of mass)라고도 한다. 또는 밀도가 일정한 경우에는 면적중심(Center of area)라고도 한다. 놀이터의 시소를 생각해 보자. 무게가 같은 두사람이 양쪽에 앉으면, 시소의 회전중심이 무게중심이 된다. 이때 밸런스 공식은 다음과 같다.
m1x1=m2x2
여기서 x1과 x2는 무게중심에서의 앉은 두사람까지의 거리이다. m1과 m2는 각각의 질량이다. 그런데, 시소의 회전중심에 좌표계의 원점을 잡으면, 왼쪽에 앉은 사람(x1)의 위치는 -x1으로 표시된다. 따라서 이를 고려하여 위의 공식을 다시쓰면, 다음과 같다.
m1x1+m2x2=0
이제 질량중심이 원점에 있지 않는 경우를 생각해 보자 이런 경우 질량중심의 좌표를 xc라 하면 다음과 같은 평형식이 성립한다.
m1x1+m2x2=(m1+m2)xc
따라서, 질량중심의 좌표는 다음과 같다.
xc=(m1x1+m2x2)/(m1+m2)
이제 이를 2차원으로 확대해 본다. 다음 그림과 같이 2차원 평면상에 n개의 질량이 분포되어 있을때, 질량중심의 좌표는 다음과 같이 계산된다.
xc=(m1x1+...mnxn)/(m1+..+mn)
yc=(m1y1+...mnyn)/(m1+..+mn)
이러한 공식을 근거로 2018년도 55회 1차 자연과학개론 A형 1번 문제를 해결할 수 있다.
[2강] 기본단위와 파생단위 (0) | 2018.11.23 |
---|
Regression Algorithm
통계학에서 Regression Algorithm이란 다른 변수에 영향을 주는 원인에 해당하는 독립변수와 독립변수로 인해서 영향을 받는 결과에 해당하는 종속변수가 존재할 때, 두 변수들 사의의 관계를 구체적인 함수의 식으로 정의하고 새로운 독립변수가 주어졌을때, 이에 해당하는 종속변수를 예측하는 알고리즘이다. 이때 독립변수와 종속변수가 각각 하나일때는 Simple Regression Algorithm이라고 하고, 종속변수가 1개이고, 독립변수가 2개이상일 경우 Multiple Regression Algorithm이라고 한다.
SVR(Support Vector Regression)도 Regression Alogorithm의 일종이다. SVR은 SVM(Support Vector Machine)의 일반화된 방법이다. SVM은 기계학습의 하나로 패턴인식, 자료분석을 위한 Supervised Learning(SL)의 일종으로 주로 두 Categories로 나뉘는 데이터의 집합이 주어졌을 때, 어떤 category에 속할지 판단하는 알고리즘이다. SVM은 선형분류는 물론 Kernel Trick을 사용하여 비선형 분류에도 사용가능하다. SVM은 데이터를 분류하는 기준이 되는 Hyper plane을 선택하는데 두 클래스 사이에 가장 큰 분류 마진을 갖는 Hyper Plane을 선핵하는 방법이 사용된다. 이 때 Support Vector는 Hyper plane에 가장 가까운 데이터로 정의된다.
SVM은 데이터를 두개의 클래스로 분류하는 문제에 주로 사용되지만, 임의 실수값을 예측할 있는 SVR로 확장될 수 있다.
강화학습(Reinforcement Learning, RL) 알고리즘은 기계학습의 일종으로, 지도학습(Supervised Learning, SL)과 달리 입력에 대한 출력이 쌍으로 주어지지 않아 하나의 에피스도내의 행동들이 올바른 행동인지 판단할 정의가 없어 각각의 행동에 대해 즉각적인 학습이 이루어 지지 않는다. 이 때문에 지도학습이 Offline Learning이라면 강화학습은 Online Learning에 초점을 맞춘다. 이 과정은 새로운 Policy를 학습하기 위해서 행동을 탐색하는 Exploration과 기존에 학습했던 Policy로 행동을 선택하는 Exploitation의 균형을 통해 이루어진다. 강화학습이란 정의된 환경(Environment)안에서 에이전트(Agent)가 현재의 상태(State)를 인식하여, 선택가능한 행동(Action)들 중 보상(Reward)을 최대화하는 행동 또는 행동 순서를 선택하는 방법인 정책(Policy)를 학습하는 방법이다. 강화학습 알고리즘을 통해 해결할 수 있는 문제는 제어, 시뮬레이션 기반 최적화, 다중 에이전트 시스템, 통계학, 유전 알고리즘 등 매우 포괄적이다. 최적화 알고리즘과 비슷한 목표를 가지고 연구되나, 최적화 알고리즘에서는 최적해의 존재와 특성에 초점을 맞추지만, 강화학습 알고리즘의 경우 학습과 근사의 측면에서 문제를 접근한다.
강화학습 알고리즘은 Markov Decision Process(MDP)형태로 환경이 주어진다. MDP현태로 주어진 문제는 Dynamic Programming(DP) 알고리즘으로 해결이 가능하다. DP에서는 환경에 대한 정보를 모두 알고 있어 보상을 최대화하는 방법을 Deterministic하게 결정할 수 있다. 반면 RL에서는 환경에 대한 정보를 모두 알 수 없는 상황에서 보상을 최대화하는 정책을 Deterministic하게 결정할 수 없는 경우 주로 사용된다.
알파고의 경우 DQN(Deep Q Network)을 기초로 하여 RL알고리즘에 딥러닝 방법을 접목시킨 강화학습알고리즘을 사용하였다. 하지만 DQN알고리즘은 불연속적인 저차원 액션공간(Low Dimensional Action Space)에서만 다룰 수 있는 한계점이 있다. 대부분 제어 문제들에서는 High Dimensional Action Space를 다루어야 한다. 연속공간을 임의로 Discretize하게 되면 Curse of Dimensionality에 빠질 수 있다. 이를 해결하기 위해 고안된 Deep Deterministic Policy Gradient(DDPG) 알고리즘은 연속적인 High dimensional action space에 사용할 수 있다. DDPG는 기본적으로 Deterministic Policy Gradient(DPG) 알고리즘에 기초한다. DQN에서 사용된 아이디어인 Replay Buffer와 Target Q network을 사용한다.
[관련글 보기]
2018/11/23 - GAN(Generative Adversarial Network) 완전 정복하기
2018/11/23 - 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano
2018/11/23 - 주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서
GAN(Generative Adversarial Network) 완전 정복하기 (0) | 2018.11.23 |
---|---|
DCGAN (0) | 2018.11.23 |
파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano (0) | 2018.11.23 |
주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서 (0) | 2018.11.23 |
Policy Gradient Methods for Reinforcement Learning with Function Approximation (0) | 2018.11.13 |
2018/11/23 - [인공지능로봇/머신러닝강좌] - DCGAN
2018/11/23 - [인공지능로봇/머신러닝강좌] - 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano
RA vs RL (0) | 2018.11.23 |
---|---|
DCGAN (0) | 2018.11.23 |
파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano (0) | 2018.11.23 |
주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서 (0) | 2018.11.23 |
Policy Gradient Methods for Reinforcement Learning with Function Approximation (0) | 2018.11.13 |
강사: 김태훈
Generative Model, Unsupervised Learning, tesnorflow, CNN구조, Deconvolution NN의 구조, 적대적 학습기법 등
슬라이드: https://www.slideshare.net/carpedm20/...
동영상: https://www.youtube.com/watch?v=soJ-wDOSCf4
평점: ★★★★★
2018/11/23 - [인공지능로봇/머신러닝강좌] - 파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano
2018/11/23 - [인공지능로봇/머신러닝강좌] - 주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서
RA vs RL (0) | 2018.11.23 |
---|---|
GAN(Generative Adversarial Network) 완전 정복하기 (0) | 2018.11.23 |
파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano (0) | 2018.11.23 |
주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서 (0) | 2018.11.23 |
Policy Gradient Methods for Reinforcement Learning with Function Approximation (0) | 2018.11.13 |
RA vs RL (0) | 2018.11.23 |
---|---|
GAN(Generative Adversarial Network) 완전 정복하기 (0) | 2018.11.23 |
DCGAN (0) | 2018.11.23 |
주피터: 파이썬 노트북, 그리고 파이썬 노트북을 넘어서 (0) | 2018.11.23 |
Policy Gradient Methods for Reinforcement Learning with Function Approximation (0) | 2018.11.13 |
김대권
슬라이드: https://speakerdeck.com/nacyot/jupiteo-paisseon-falseteubug-paisseoneul-neomeo
동영상: https://www.youtube.com/watch?v=VbbXUKigVfs
후기: iPython이 왜 시작되었는지, 웹인터페스의 개념, 클라이언트와 서버, 커널과 멀티커널, REPL의 개념, Jupyter 등을 역사적으로 이해할 수 있는 동영상
평점: ★★★★★
RA vs RL (0) | 2018.11.23 |
---|---|
GAN(Generative Adversarial Network) 완전 정복하기 (0) | 2018.11.23 |
DCGAN (0) | 2018.11.23 |
파이썬 데이터 분석 3종 세트 - statsmodels, scikit-learn, theano (0) | 2018.11.23 |
Policy Gradient Methods for Reinforcement Learning with Function Approximation (0) | 2018.11.13 |