Major`/인공지능(15)
-
[AI] 강화 학습 (Reinforcement Learning)
Supervised Learning은 인간이 "Labeled Data"를 줌으로써 Agent는 Learning을 통해서 주어진 훈련 데이터를 모두 만족하는 가설함수를 찾아낸다 Unsupervised Learning은 인간이 "input Data"만을 줌으로써 Agent는 Learning을 통해서 주어진 input data들을 "Clustering"한다 Reinforcement Learning은 이전의 Learning과는 완전히 다른 방식이다 왜냐하면 아예 훈련 데이터를 주지 않기 때문이다 그러면 어떻게 Agent는 Learning을 할까?? >> Agent는 아무것도 모르는채로 "환경"에 투입되어서 경험을 통해서 Learning을 한다 일단 Agent가 환경에 놓여지면 1) 먼저 state를 인식하고, ..
2022.06.10 -
[AI] Unsupervised Learning (Clustering)
Unsupervised Learning Supervised Learning은 인간이 "학습데이터 (Input Data - Output Lable)"를 부여하고 Agent는 받은 학습 데이터들의 output을 모두 만족시키기 위한 가설함수를 Learning을 통해서 알아낸다 Unsupervised Learning도 인간이 학습 데이터를 부여하기는 하지만 그 학습 데이터에는 "Output Label"이 존재하지 않는다. 그러면 Agent는 Unsupervised상에서 어떻게 Learning을 하라는 것일까?? >> Input Data끼리 "그룹화"를 시키는 Clustering을 학습의 결과로 도출해낸다 - Input Data안에 "숨겨진 패턴"을 학습하는 것 - 패턴이 비슷한 Data끼리 묶어준 "Clust..
2022.06.10 -
[AI] 비-모수 모델
모수 모델 : Parametric Model 모수 모델이란 "인간"이 가설 함수의 범위(다항식 차수)를 Agent에게 알려주고, 차수를 바탕으로 Agent는 Learning을 통해서 Parameter를 구하는 방식이다 A Learning Model summarizing data with a set of parameteres of fixed size 비-모수 모델 : Nonparametric Model 비-모수 모델은 인간이 학습하라고 부여한 학습데이터를 "학습"에 사용하지 않고 전부 보유만 하고 있다 학습을 안하고 놀고있고, 받은 훈련 데이터는 가지고 있기만 한다 매번 input이 들어올때마다 "보유하고 있는 학습 데이터를 사용"해서 해당 input에 대한 결과를 도출해내는 방식이다 개체-기반 학습(In..
2022.05.28 -
[AI] 인공 신경망
Neural Network Neural Networks는 신경세포(Neuron)들의 "연결(Link)"로 구현되어 있다 Neuron들을 "Unit"이라고 부르기도 한다 Input Links는 N차원으로 구성이 되고, 각 Input Link마다 "가중치"가 존재한다 {Input Value & Weight}를 각 input마다 곱해서 들어온 총 합(Input Function)이 "Neuron으로 들어오는 Input Value"라고 할 수 있다 이렇게 Neuron내부로 들어온 Value는 "Neuron의 Activation Function"에 의해서 Processing되고, Processing이 완료된 값이 Output으로 나가게 된다 Input Function Input Function이란 들어오는 valu..
2022.05.28 -
[AI] 감독/교사 학습 (Supervised Learning) - (2)
Supervised Learning에서 Agent는 인간이 부여한 몇가지의 Example을 통해서 학습을 한다고 설명했다 이 때 Agent는 Example들에 대한 "가설 함수"를 찾아내는 것이 학습의 목적이다 당연히 Agent가 가설함수를 도출해냈으면 그 가설함수에 대한 "평가 & 선택"을 해야 한다 모델 선택 최종 결정되는 모델은 결국 여러 가설함수중 Best를 선택할 것이다 1. Model Selection "가설 공간"을 정의한다 가설 공간은 그냥 다항식의 차수를 의미한다 2. Parameter Optimization 가설 공간내에서 최고의 가설 함수를 찾아야 한다 결국 다항식의 차수를 인간이 결정해주었다면 Agent는 그 다항식에 대한 "계수"를 Learning을 통해서 알아내야 한다 ※ 모델 ..
2022.05.14 -
[AI] 감독/교사 학습 (Supervised Learning) - (1)
Supervised Learning Supervised Learning은 인간이 Label된 Data(input - intput에 대한 output)을 부여하고 Agent는 받은 여러 Example들을 통해서 input에 대한 output이 도출되는 "가설 함수"를 찾아내야 한다 Learning Problem 1. 목적함수 F F란 input data에 대해서 언제나 반드시 output을 결정할 수 있어야 한다 단, Agent(학습자)는 영원히 F를 모른다 Agent가 Learning을 통해서 얻는 것은 F와 최대한 비슷한 "가설함수 H"를 찾아내는 것이다 2. Example (input - output pair) Agent는 (input - output pair)로 이루어진 여러개의 Example들을 ..
2022.05.14 -
[AI] Learning
Learning AI에서 학습은 단지 무엇을 배운다고 끝나는 것이 아니다 배운다는 경험을 토대로 에이전트의 작업 성능이 개선이 되어야 그 에이전트는 "학습 능력이 존재"한다고 볼 수 있다 이러한 점은 인간도 마찬가지이다 아무리 가르쳐줘도 발전이 없는 사람은 학습 능력이 전혀 없는 사람이라고 볼 수 있다 반면에 가르쳐줄수록 경험이 쌓이고 그에 따른 성능이 개선되는 사람은 학습 능력이 있다고 볼 수 있다 학습의 필요성 1. 설계자는 미래에 일어날 모든 가능한 상황과 변화에 대해서 에이전트를 처음 설계할 때는 예상할 수 없다 따라서 Agent에게 학습은 필수적이다. 학습을 통해서 설계자가 예상하지 못한 이벤트에 대해서 대처할 수 있는 능력을 만들어야 한다 2. 프로그래머도 사람이기 때문에, 어떠한 상황에 대해..
2022.05.14 -
[AI] 전통적 계획 수립 - PDDL
Planning (초기 상태 → 목표 상태)에 도달하기 위한 "Sequence Of Action"을 찾아내는 것 ※ 계획 수립 (초기 상태 → 목표 상태)에 도달하기 위한 "Sequence Of Action"을 찾기 위해서 필요한 여러가지 환경/요소 등을 정의하는 것 >> 이렇게 도출된 Solution Plan은 "Optimal"해야 한다 최소 비용으로 목표에 도달 전통적 계획 수립의 여러가지 가정들 1. Environment [AI] Agent Agent (Rational Agent) 1. 자신이 놓인 환경에 대해서 "센서"를 통해서 환경에 대한 상태를 "추정" (Sensor Value 획득) 환경이 현재 어떤 상태인가 그 환경 속에서 나는 어떤 상태인가 2. Effectors를 통해서.. cs-ssu..
2022.04.30 -
[AI] CSP : Constraint Satisfaction Problem
CSP (제약 만족 문제) 대학교 시간표를 짤때도 여러 강의를 자신의 시간표로 넣을 때 각 강의간에 제약조건에 존재한다. 이러한 과정을 통해서 시간표를 완성했다면 우리는 "시간표 짜기"라는 문제에 대한 제약 조건을 만족했다고 할 수 있다 "인공지능"의 많은 문제들은 제약 조건을 만족시켜가면서 해결하는데 이러한 문제의 Goal State는 "주어진 제약 조건을 만족"시킨 상태이다. CSP의 3가지 요소 1) Variable 문제에서 제약 조건을 만족시켜줘야 하는 "변수들" - 각 변수들 사이에는 제약조건이 존재하고, 제약조건을 만족하도록 각 변수에 Domain 값을 설정해줘야 한다 2) Domain 변수에 할당되는 "값들의 집합" - 제약조건을 만족할 수 있도록 변수들에 Domain 값을 잘 설정해줘야 한..
2022.04.23 -
[AI] Adversarial Search
Adversarial Search (적대적 탐색) 이전의 여러가지 탐색(BFS, DFS, A*, GBFS, Hill-Climbing, Local Beam, Simulated-Annealing)들은 전부 "Single Agent 환경"에서의 탐색 문제이다 Multi Agent의 경우에도 현재 노드에서부터 Tree 형태로 Expanding되는 것은 동일하다고 볼 수 있다 Adversarial Search에서는 "Game Tree"라고 부르기도 한다 Single Agent에서의 탐색 목적 Single Agent는 풀고자하는 문제/환경에 Agent혼자만 존재하고 환경 또한 Agent 혼자만 변경이 가능하다 >> Single Agent에서의 탐색은 결국 초기 상태 -> 목표 상태까지의 Sequence Of Act..
2022.04.16 -
[AI] Local Search
Local Search Algorithms 많은 "최적화 문제"에서는 Goal까지의 경로가 중요한게 아니라 Goal에 도달하는 그 자체가 중요하다 상태 공간 탐색의 경우 초기 상태 & 목표 상태가 주어지고 Action들의 Sequence에 의해서 Goal에 도달한다 지역 탐색의 경우 초기 상태만 주어지고 목표 상태는 모르는 상태에서 오직 현재 상태보다 더 나은 상태로 가려는 탐색 방식이다 그에 따른 제약조건이 굉장히 많지만 지역 탐색은 제약조건을 최대한 많이 만족할 수 있는 Goal을 찾는 것이 목표이다 >> 목표 상태까지의 Path는 관심 X / 오로지 목표 상태에 도달하는 그자체가 중요하다 특징 1) "상태 공간"이란 해당 공간안에 존재하는 state들이 모두 그들만의 value를 보유하고 있다 - ..
2022.04.12 -
[AI] 탐색 문제 : Informed(Heuristic) Search
Informed Search (= Heuristic Search)"지식"을 사용해서 여러 갈림길 중 최적의 node를 효율적으로 탐색하는 방법Best-First SearchA* SearchIterative Deepening A* (IDA*) SearchNode를 펼쳐놓고 탐색하기 전에 해당 Node가 문제 해결에 있어서 얼마나 좋고 최적의 Node인지 판단해주는 평가함수 : f(n)을 사용→ 평가함수가 좋은 Node부터 ExpandingGreedy Best-First Search전체적인 환경에서 각 후보 node(아직 확장 X)들에 대한 우선순위? 특정 Integer값이 존재한다그리고 각 우선순위는 "지식"을 활용해서 평가를 한다평가 함수 f(n)은 여러 후보 node들을 평가해준다평가 방법은 각 nod..
2022.04.01