[include(틀:토막글)] [include(틀:이론 컴퓨터 과학)] 경사하강법은 영어로 Gradient Descent method 혹은 Gradient Descent Algorithm이며, 함수의 최솟값을 찾는 [[최적화 이론]] 기법이다. 함수의 변화량(2차원 일때는 [[도함수]], 그 이상은 [[그라디언트]])을 이용하여 계수를 조정하는 방식으로, 함수가 줄어드는 방향으로 계수를 계속 갱신해 나간다. 개발자는 함수가 한 번에 얼마나 줄어들게 하는지를 결정하는 패러미터를 정해야한다. 이 패러미터가 너무 작으면 최적화가 너무 오래 걸리고 너무 크면 최솟값을 지나칠 수 있다. 비용함수의 최솟값을 찾아야 하는 '인공지능' 관련 학과 입학 질문 단골 메뉴이다. 경사하강법은 분명 '인공지능'의 기초를 이루는 방법이기는 하지만, 오늘날의 인공지능 분야는 경사하강법 만으로는 해결할 수 없는 문제를 다룬다. 최소한 관련 방법을 여러번 써야 해결 되는 문제를 다루는 편. [[분류:알고리즘]][[분류:최적화 이론]]