자청의 유튜브 추출기

유튜브 영상의 자막과 AI요약을 추출해보세요

AI 요약 제목

기계학습 최적화 비법 정리와 핵심 해설

원본 제목

오일석 [기계학습] 5장(5.1절)

오일석

조회수 조회수 2.1K 좋아요 좋아요 15 게시일 게시일

설명

자막

자막

전체 자막 보기
아 으 [음악] 죠 여러분 반갑습니다 오늘은 그 오자 팀 난닝 최적화를 공부할 내자 봅니다 어째 덮고 시방 했는데 오늘 p 봤죠 많이 떨어져 버렸네 좀 아쉽죠 시간 참 빨라요 여러분이 그 4장에서는 빈 논이 기초를 배웠어요 그래서 크게 보면 그 mlp 를 층을 확장한 tm 에피 깊은 해낼 피해 그 다음에 극한 블러셔 연산을 사용하는 시에는 눈을 공부했고 그 다음에 뒷부분에서 는 생상 모델로 괜히 라는 걸 공부했어요 자 5장에서는 제 팀도 아니 최적화 이런 주제로 공부를 하는데 5 [음악] 이기대 학습을 최적화 문제가 그 상당히 까다로워요 그 앞에서 되겠지만 위장에서 얘기함 어 으 최적화 라는 그 분야를 공부 했었죠 거기에서 되겠지만 과학 5 공학에서 최적화는 기재 학습 5 최적화하고 비교를 하면 좀 비교적 단순하다 이렇게 풀 추가 있어요 자 예를 들어 가지고 어떤 이 작은 웨이퍼의 엄청나게 받은 실리콘을 직접 을 해야 되잖아요 그리고 그 뭐 바 으 메모리반도체 도 만들고 그다음 cpu 반도체에서 왔던 걸었는데 그 어떻게 배치를 해야 가장 잡은 그 크기 외부의 가장 많은 트랜지스터를 직접 그러냐 뭐 이런 것도 그 최적화 문제에요 또는 목적 지켜야지 최단 경로를 찾는다 든지 또는 비행기 날개를 음 모양을 만들 때 어떤 공유로 살결 해야 바람의 저항을 최소로 하느냐 이런 뭔가 듯 그런 최적화 문제가 있는가요 이런 최적화 문제는 미국 방점이 높은 다든지 해가지고 최적가 블 알아 알아내면 그 해에 따라서 그냥 뭐 날개를 봤던 닫은 지 아니면 내비게이션 해서 경로를 안내려 온다던 그런 뜻이에요 근데 기계 학습 은 크게 아는거 훈련 집합을 학습을 마친 취 해 학습 집합이 없던 현장에서 발생하는 그런 데이터에 대해서 높은 성능을 그 만들어야 되잖아요 또 새로운 샘플을 잘 예측을 해야 되고 이걸 다른 말로 하면 일반 와 능력이 뛰어나야 된다 자 이것을 우리가 저그 다른 말로 표현하면 훈련 지파 위 향우회 발생할 테스트 집앞 어이 어떤 대리자 역할을 한다 이쪽 볼 수가 있어요 그리고 우리의 최저 최종적인 목표는 정확 마디 높은 거죠 예를 들면 숫자 인식 안 한다 또는 얼굴 이식 온 한다고 그러면 거의 100% 에 근접한 그 2 신규 총 완결 이게 우리 최종 목표인 데 학습을 할 때는 실제 정 확률을 사용을 하는게 아니라 뭐 린스 표 4에 라든지 도 뭐 우도 라든지 이런 [음악] 다른 함수를 사용하잖아요 그러니까 목적 암수가 최종적으로 성능 지표를 대리 해주는가 또 이렇게 볼수가 있어요 그래서 벌수 대리자 관계 어투 개 돼 있잖아요 차수 집합을 훈련 집합이 데리 잘 가래 좋다 그 다음에 정확 유리라는 최종적인 그 목표를 로 우도 라든지 이런 목적 암수가 대리를 해준다 어 요런것도 최적화가 어려운 이유 중에 하나구요 대부분 경우가 즉 그 목적 암수가 b 볼 없엉 절 가지고 있다 그래서 으 뭐 칼 op 뭐임 않은 거죠 지역 추적해 가 뭐 그런거 라든지 특징 공간이 정말 고차원 이잖아요 그 비결로 단수는 그 m 네스트 데이터 피우게 숫자만 해도 28 월 28 픽셀 1 a 여 특징으로 간주 러면 784 차원의 아주 높은 차원이 되는 거에요 어 그 다음에 데이터는 우리가 아무래 열심히 모아도 여전히 배가 없다 2조 거다 뭐 이러한 여러 가지 현실적인 그런 이유도 있구요 실제로 기 학습을 하다보면 그 시간이 엄청나게 많이 소요가 된다 예를 들면 그 gpu 를 내게 장착한 컴퓨터를 사용해서 부위 지지대 우리 4장에서 그 부지 내 공부 했잖아요 거기 옵스 포 대학에서 받는건데 그 경우는 2 3주 걸렸다고 봉구가 돼 있어요 물론 지금은 끝이 pu 상당히 더 좋아져 가지고 아마도 그냥 요구에 뭐 반 이라던지 4분의 1 정도 시간이면 되겠지만 그 꽤 긴 시간이 걸리는 거죠 자 그래서 그 이 최적화를 우리가 주먹구구식으로 만들고 그래 그 체계적으로 해야 되는데 우 장은 어여 러 가지 효과적인 방안을 공부해요 5.

1 절은 우리가 앞에서는 음 평균 최고 붙여 ms 일을 가지고 없기 분 더 오래 가지고 음 최적화 해 봤는데 그 좀 단점이 있어요 치관 적으로 낙태 놓았는데 단점이 있어 가지고 모교 찬 트로피 라든지 모국 우도 라든지 이런 또 다른 목적한 무슨 소개 라고요 2.

2 저는 그 최적화로 는데 최적화 속도를 향상시키는 여러 가지 요령 들이 재벌이 되어 있거든요 스런 요령도 를 그 그 공부한다 뭐 같 가령 뭐 전처리를 언제든지 가중치를 어떻게 초교 할건지 모멘텀은 어떻게 적용을 할 건 채 뭐 이런 여러 가지 것들을 공부 하고요 그다음 5.

3 절에서는 5.

3 대고 첨사 절은 규제를 공부라는 5.

3 절은 그 휴 제가 왜 필요 언제 하고 규제 라는 게 도대체 어떻게 작동으로 이제 간단히 제 소개를 하고 점 4 자리에서는 그 대표적인 주 제품으로 가중치 벌 책 조회 멈춤 데이터 막대 2 벗 앙상블 이런것들을 자세하게 소개를 할 겁니다 그 다 5.

5 절은 실적 딤 너에게 보면 하이퍼 100 6회 않거든요 채널 몇 개를 까자 각층의 흔 징후도 이렇게 올 거야 학습 유로 얼마나 거야 미니 100사이즈 얼마나 올 거야 모멘텀 개소로 얼마 나올까요 것은 여러분이 지정을 해줘야 되는 학습 들어가 지쳐 지정을 해줘야 되는 그런 100m 연수 들인데 2 하이퍼 베개 변수들을 어떻게 그 적절하게 설정을 할 거야 이런 방법을 소개 라구요 2.

6 쩔은 지금까지 우리가 사용한 그 최적화 방법 미분을 기 바로 했는데 미분이 1차 해보니 참이고 삼창 이고 4차 매번 있어요 물론 3차 4차 반대편으로 ngo 쓰이지도 않고 1차 놈이 찾을 수 있는데 지금까지는 그레이드 한테는 사용을 했어요 근데 그레잇 이어 테는 1차 미분 이거든요 그런데 2차 미분 을 활용 음 어떠냐 그래서 2차 외부는 활용하는 그런 기법들을 조금 점 6절에서 설명을 할 예정입니다 먼저 5.

1 절에서는 목적 마음으로 공부를 하는데 앞에서 사용해왔던 평균 체구 보철을 한 번 다시 한번 생각을 해 보자 얘가 좀 단점이 있어요 자 우리가 이제 시험을 보면 여러분도 이제 추가 무사도 보고 이제 기말고사도 보복을 해야 되죠 그러면 그 많이 틀리는 박성은 벌점 원 좀 많이 받아야 되죠 뭐 벌점이 라는 것은 결국 약점이 따져 지는 거죠 그리고 열심히 한 학생은 폴 점을 좀 적게 받는 거죠 뭐 a+ 라든지 와 이재도 라든지 이런 확정으로 받는게 벌점이 적응 거죠 그렇게 해야만 다음 시험에서 근데 심 개천 했어요 열심 해가지고 다른 과목의 또 좋은 성적을 받고 그러잖아요 그런데 뭐 공부를 열심히 헌 학생 뭐 열심히 안 학생이 뭐 비슷한 같은 성적을 받는 다든지 않으면 비슷한 성적을 받으면 어 요 그냥 놀아도 되 네 하고 좀 놀자 나요 기계학습 에도 비슷한 현상이 일어났다 이래요 으 차 먼저 지금까지 우리가 사용했던 평균 최고 차를 다시 한번 살펴 보면 이게 이제 평균 최고 뭐 차 공식 인데 이 와인은 그 베이 브리지 요청 답이죠 우리에게 주어지는 값이 줘 그 다음 보호 르 현재 그 신경 방이 출력한 갑이죠 그래서 그 두개를 빼 가지고 그 2차 몸을 구하면 그게 바로 이제 오차가 되는 거죠 자 되는거죠 뭐 이 차가 못 춰도 되고 지금 이제 이 경우는 제곱은 했기 때문에 이제 2차 몸에 제곱을 치는 거죠 요 앞에 다가 2분의 1 을 곱해 주고 얘는 없어도 되고 있어 뜨고 얘는 단순히 미분 했을 때 상세가 돼 가지고 수식을 단순하게 함마 고어 2분의 1을 2처 증거에도 불구하고 요 자우버 차가 크면 클수록 즉 y 가 정답 인데 정담 해서 뭐 르면 먹을수록 값이 커요 그니까 직관적으로 생각을 해 봤을 때 벌 점으로 꽤 훌륭한 뭐죠 뭐죠 근데 어쩜 도 있다 자주 간단한 신경망을 생각을 해 가지고 이 가중치가 딱 하나 뿐 이라고 생각을 해봅시다 위하는 바이어스 거 다 주차나 뿐이에요 그런데 출력이 되요 그러면 이제 일정량 이제 그 바이어스 했는데 1.

02 들어가죠 그 다음에 이제 그 입력값 은 1조 뭐가 들어 갖다 붙이면 이 툴을 곱하고 이 2로 곱해서 합을 구하는 거죠 그게 우리 신경 많이 하는 일이잖아요 그 다음에 그 활석 압수 더 집어 더 가지고 이 오란 갑을 출력 빰을 얻어 되는 거죠 그리고 지금 목표값 이제 0.

0 이었다고 과정을 한번 해봅시다 그러면 이 상황에서 우리가 욤 5.

1 시켜 닭 io 와 y 를 칩 얻어 가지고 계산을 해보면 0.

28 이론을 얻는다 언제 오른쪽 싸움 같은 경우는 0.

99 7회를 나왔다 그러면 2 갑 을 테이블에 봄 0.

4 고치를 어떻게 돼요 되죠 자 어떤 경우가 더 많이 틀렸어요 오른쪽에 왼쪽 이에요 예 오른쪽이 줘 우리 차이가 더 크죠 오른쪽이 더 많은 벌점을 받아야 된다는 거에요 그렇죠 그러면 토대 체벌 적 이라는 게 뭐냐 헐 전이에요 그게 여러분 같으면 약점이 벌점이 줘 학점이 높으며 벌점 작은거 거 몹이 라식 받으면 벌점 이 큰 거죠 그러면 이기자 학습 에서는 조 자체 버거가 벌점이 냐 그러면 결국은 그 오차가 발생 흐르면 그레잇 이어 털을 계산 해 가지고 그 레이디언 틀을 가중치 에다가 반 열어 줘 업데이트 러 줘 그래가지고 가중치를 바꿔 노 초 그러니까 결국은 이 그 레디언트 가 걸 점이라고 볼 수가 있어요 그래서 오차가 크면 그레이드 1 터커 가지고 많이 바꾸는 거고 오차가 작으면 즉 잘하면 그래도 한테 작업 가지고 조금만 경신하고 벌점 을 적게 주고 그러니까 글에 이어 테가 우리가 그 레디언트 가 벌점이 다이 간주할 수 있어요 시계 쓰면서 난 [음악] 자 그러면 이 단순 상황에서 요 목적 함수를 가지고 글에 대한 그 공식을 적용을 해보면 뭐 미군은 하는 거죠 그래서 wb 분하고 또 피고 b 분하고 이렇게 보면 너무 점 30일 얻게 되고 요 점 3식을 가지고 실제로 그 레이어드 계산을 해 보면 왼쪽 상황에서는 0.

21 공부하고 그 다음에 바이어스 같은 경운 0.

1 싹 공유기 나와요 그다음 오른쪽 싸와 같은 경우는 0.

00 사상 0.

00 2구가 나와요 그래서 이게 벌점이 고 이게 틀린 정돈데 윤리가 틀린 정돈데 실제로 더 많이 틀렸는데 그레이드 한테는 더 작죠 번째부터 작죠 음 이런 그 어긋난 그런 상황이 발생 한다는 거야 즉 그 msn 은 훌륭 어긴 하지만 어떤 측면에서 바라보면 헛점을 지니고 있다 볼 수가 있죠 그럼 왜 이런 상황이 발생을 한다면 우리가 그 활석 암으로 이 노지 딕스 금호 이들을 사용하잖아요 근데 이게 로지스틱스 구멍이 드가 이게 이제 그 가게 커지면 2 더블 엑스 플러스 키가 가루 추계 당연 한다 이 값이 커지면 그랜저 토익의 자가 지잖아요 자지 즉 변화가 거의 없잖아요 19 거였기 때문에 그랜트 작은 거에요 이게 책이 프레젠트 거거든요 0일 때 그레이더 특가 b 0.

2 10마리 0.

25 쯤 되겠네요 가장 크고 그 0에서 뭐 왼쪽으로 벌어지거나 오른쪽으로 멀어지면 점점 글에 대한 특가 비자 거져 가지고 1 6 2 나이 정도 되면 거의 제로 라는 거에요 이런 이유 때문에 자 그럼 먼저 대한 있어야 되는데 그 대안이 뭐냐 그래서 그 팀 논의에서는 그 교차 엔트로피 또는 로그 우도 이런 것들을 대안으로 사용하고 있어요 교차 엔트로피는 뭐냐면 여러분이 장에서 그 확률 통계 부분이 있었죠 고 부분에 핏 부분에서 이제 정보 이름이 나오는데 거기서 이제 그 어 표 차인 트로페오 먼지가 저희가 돼 있어요 그래서 거기 를 다시 한번 살펴보면 되고 에 경차의 트로피는 결국 잡히 라라 환경 복구하고 큐라 황금 없고 2개가 있을 때 두 개가 얼마나 다르냐 이걸 측정하는 그 메트릭 이라고 봄 되죠 그런데 이 경우에서 필은 먹어 이제 추는 뭐냐 그럼 피는데 정담 해요 자 우리가 그 입으로 라고 해야 되고 투유 가 0 이거나 이기라고 간주되어 봅시다 단수로 그러면 이제 예 y 가 0일 얻어 샘플이 있는데 컨셉트 정답 영이 그 상황이고 그 다음 오른쪽으로 y 가 되니 긴장 원어 민 3 으 여기서부터 도 있고 이제 제부도 있거든요 그래서 염이 샘플을 왼쪽을 할 펴보면 되고 이런 저도 전적으로 쫌 상황에 보면 되죠 차와 이가영 이단의 2분이 0이다 그런 샘플 있다 그러면 필요할 환구단 영의 확률은 일이라고 볼 수가 있죠 그 러 버 음 1일 확률은 영어 답 그 볼수가 있어요 이런 확률 범 쿠가 출력이 돼야 제대로 된 거죠 그런데 실제로 신경 방이 출력 모를 만들어내는데 출력 오늘 만들어졌다고 그러면 그 0 1 방 무리일 말라 소 oo 가 이제 그 신경망 출력 애나 5 출력하고 줘 그 다음에 1화 물은 뭐 오다 게 본거죠 아 자 y 가 1대 1 때는 q 는 똑같아요 1 - 5 여기 방문해 그 다음이 로 음울한 뭐 해요 5 저 막대찌 기는 좀 다르겠지만 으 이 수식을 1 - 소 녀 고 똑같아요 근데 옆이라 나만 그릇 념 하울의 영어 고 1 1 방법인 거 많이 바뀌었죠 이 두 가지 상황을 우리가 통일된 수식으로 쓸 수 있는데 p 제도는 1 마라 스와니 t1 y2 계속 못해요 y 가 0이면 1 0 이 되고 아이가 일이면 0이 되고 되는거예요 그 다음에 어 휴 황 노릇 00일 방법은 1 말라서 인 1 방법 5 이케 쓸 수가 있어요 그래서 이 q 라는 한글 뿜 쿠 이큐브 ip 란 걸 먹고 멈추라는 환경 범위의 크로 세토 켄 정이 나오면 컷에 터키식 이제 좋게 되니까 하면 외모로 주시면 돼요 yoo 플러스 1 - 와인 오브 1 - 5 일어 주시겠지 이게 법조 같소 그리고 그 오랄은 신경망의 추정 익혀서 지잖아요 뭐 우리 아까 단출한 경우에 보면 w x 플러스 up 해가 지고 집값 나오고 진위를 지금 어린 암 쏘 이런 활자 감자칩 워드가 정보를 이렇게 되겠죠 자의 6주 거점 사시게 교차 엔트로피 목적 암수가 정말 구실을 채널 하던지 내실을 한 번 해보자 자 y 가 얘기다 어떻게 제품이 있는데 이 일이에요 근데 신경망에 0.

9 파악을 출력을 했어요 원로 예측이 꽤 잘 된 경우죠 그래서 요 어쩜 사시게 다크 페페 입으려면 0.

0 292 늘 인자한 갑이다 와요 비교적 낮은 값 나오죠 5 아 근데 y 가 일인데 뭐가 0.

00 입니다 예측 완전 정복하기 줘 그런 경우는 수식의 집어 들면 13.

2 877 없게도 끙 각 나와요 으 우리가 뭐 점 4식 즉 교차 엔트로피 목자 감소를 미니 빨리 해야 돼요 맥스 바 있어야 돼 님아 이제야 되죠 미니 말이 자는 문제에요 ms2 도민이 많이 사람들 있죠 얘도 무기 말이죠 문제로 먹고 싶어 된겁니까 자 ms2 대신에 2 5.

4 식을 2분 에서 처음에 크레디트 구하고 그 레디 에이터 가지고 우리 사장 했던 것처럼 그 그래 그 가 정체를 장식으로 이렇게 하면 되는 거예요 [음악] 토 함수로 구해보면 w 미분 엄연히 더 주시고 이렇게 되고 그 다음에 이제 켜 보 비료도 해가지고 정렬을 하면 2 5.

5 12 2 괴롭게 되요 자 실제로 그래 개편 계산을 해보자 제대로 벌 저걸 부여를 않죠 그러면 그 아까 니 오른쪽이 더 으 그 이 오차가 큰 경우 잇죠 예 더 큰 결정을 받아야 되요 정책 그 레 이 어 트 가 더 커야 된 상황에 더 실제로 개선해 보면 얘는 1.

4 고체를 0.

99 7이 지 나오고 년들 1.

12 5 0점 7호 공사비 다 와가지고 오른쪽의 그랜트가 더 크잖아요 즉 설정을 제대로 더 큰 결정을 받았다 이렇게 볼 수가 있죠 5 아 자 우리가 더 출항한 5.

4 식은 클래스가 두 가지 경우 경우 그렇죠 영화보기 된 근데 여러벌 이제 그 시계의 클라스가 있는 상황으로 확장을 하면 또 출력 배타고 o2 야노 멋이 뻘 표기할 수가 있죠 그래서 이렇게 씨 그 말을 붙여 가지고 이렇게 확장으로 되요 지금 아이는 일에 시 까지 그니까 그 각각의 푸드 뭐 다 즉 각각의 출력 노도 마다 우리가 워런 깝 그 다음에 실제 출력 될까 해가 지고 찾아가고 이래서 활 빼고 이래서 호패 가져보고 취하고 2 터 5 아 자 우리의 패한 을 하라 발현을 했어요 교체 않도록 해 다른거 또 알아라 이제 뭘 우 돈대 뭐 옻 오른 보통 제 소프트맥스 활성 쓰고 결합을 해서 했었는데 소프트맥스 는 5.

7 10 처럼 저희가 돼요 그래서 그 느 j 번째 노들 중간 계상 깝 즉 으 뱉어내 적응 거죠 해당 도는 녹기 레 다크 패서 더 그 값 으로 인해서 제일 9호 그러면 es ja 요인 제자 양로 보야 그 상수 줘 2.

78 얼만큼 알고 있잖아요 그거하고 따로 게 모든 부류의 대해서 그걸 계산을 해서 다 더운거 또 나눠줘요 이게 네 소프트웨어 앱 줘 자 소프트웨어를 실제 상황에 테이블 해가지고 즉 세상을 해보면 저희 게 이제 마지막 출력 층 이라고 봅시다 그래서 이거 해당되는 너무 웃기네 뭐 가 갑을 홈에서 닥터 운 갑이 2점 약 1.

2 4.

02 나와 따져 봅시다 이 상황에서 이제 활성화 암술은 착용을 해야 되요 자 odc 택시 금혼 인데요 아까 s 쩜오 오른 친구의 담수를 자동으로 하면 0.

88 08 0.

76 바로 0.

98 e 가 최종 출력을 다음 거에요 자 우리의 맥스 란 함수를 착용했다 즉 맥심 원 만 이를 출력을 하고 나머진 다 영어로 바꿔 버리는 물론 활성화 번 쓴 더불어 면 예 환희 되고 나머지가 0이 되는 거죠 소프트웨어 xl 어떠냐 이 5점 출시 개 2.

0 1.

24 점 정을 페이블 외 가족회사 알아보면 0.

13 1 0.

01 08 0.

83 성공이란 가지다 와요 즉 맥스는 커지고 맥스가 아닌 놈은 갑이 억제돼 가지고 작아지고 이 격차 커져 버려 있죠 써 얼추 보면 맥스 하고 유사 어 작동 오라는 거예요 맥스가 아니에요 아 폐 속 이 같은 소프트 맥스가 부르는 거에요 맥스를 축내는 되는데 너무 소프트한 거에요 맥스는 하드웨어 잖아요 맥스는 1로 만들고 벡스 아니 너무 영어로 봐 거 딱 국회 분류를 해 버렸는데 재단 함수처럼 년은 이제 소프트웨어 하게 x 들 중간 된다고 지금 6x 이렇게 푸른 거죠 아 소프트웨어 x 다 더하면 이게 돼요 올려서 그래서 아 또 때 또 록 확률로 간주 를 하고 사용하는 경우도 많이 써요 로고도 목자 감추는 뭐냐 아주 탄수 라지고 좀 할 수 그래서 5y 에다가 로그를 배추 정도에요 앞에다 - 붙여줄 겁니까 그럼 o 와 이런 토대 쳐보자 oi 는 에 5 자 이제는 이제 출력 치의 출력 갑이고 얘들은 그 액티베이션 펑션 활성화 순천 용으로 뭐고 여기에 목적 값 있죠 네 인물이 지정해주는 목적이자 예를 들면 그 어떤 샘플이 입력을 도와주 이런 출력함 이 나왔는데 그 샘플이 이 세 번째도 3 번호 대담 되면 목적과 몇 해야될까요 레이블이 0 0 1로 주어 지죠 명검 로운한테 주어지지 않아요 그러면 요 세 번째 만 이고 나머지는 00 잖아요 후보가 b 네 물가가 5 그러면 이 일은 녹 세번째 그 목말 y1 간주하는 거에요 즉 년 출력 깜 줄까 0.

83 입국 5 oye or 즉 분류 문제에서 어떤 샘플이 소속돼 있는 크 류 에 해당하는 출력 노도 에 출력과 크 것을 우리가 oy 라고 표현하는 거 좋아요 자 그러면 여러분이 그 이발을 이해를 했다 그러면 아 우리가 방금 전에 공부했던 ms 이라고 크로센 to 피하고 101 했을 때 부부들은 아주 남다른 점이 있구나 이걸 파악을 할 수가 있어요 남다른 잘 보려면 ms2 하고 퍼센트 부케는 이식에 출력 노드 가진 이 시계를 다 호러를 해가지고 뭔가 갑 을 만들어 내죠 그러잖아요 모든 c 게 노드 까불다 계산을 해 가지고 합을 해가 지고도 만들었느냐 근데 로 보도는 쉬게 가 있는데 그 중에서 정답 외 닭 또는 놈 딱 한 개만 보는거 앉아 뭐 나머지는 안 봐야 그분 차이가 있죠 자동자 계시 란 봅시다 아 이 그림에서 5.

5 풀리면서 현재 샘플이 두번째 풋 오라고 가져가라고 놀아봅시다 두번째 부종 그러면 이제 요놈 반 일로 레이블이 추워지니까 5 y 가 여러 미 줘 너 너무 줘 요 놈 이다 o 를 추가 못했어요 뭘 주면 4.

2 9902 나와요 아 자 동 작 했으니 그게 못하시고 해서 현자 석불이 세번째 부르라고 가져오라고 자 그러면 우와 에는 요놈 에 대해 노후에 0.

83 뚜껑 지금 몸에다가 로보 를 취하고 - 붙여준 영업점 2584 가 되요 동작의 시일이 제대로 맞추어 요통 작 4시 이가 찾아와 줘서 해요 통장에 시기가 제대로 맞춘 거죠 왜냐하면 아 가장 큰 까비 나왔잖아요 가장 그러니까 그냥 깜깜 가운데 이 시청자 계시인 어 요놈이 정답이라 그랬으니까 제대로 맞춘 거죠 예시 일은 클릭 거에요 써 클린 경우는 이제 큰 목적 암 수로 나왔고 제대로 갖춘 경우는 0.

25 8 4 럽 자기가 b 나오고 있죠 그래 이 예 심한 보면 아 뭐 o 2 가 5 잘 하겠네 이렇게 보면 이해를 수가 있죠 소프트웨어 x 악으로 모두는 서로 그 추구하는 바가 잘 들어맞아 가지고 소프트웨어 x 의 최대 컵이 안캅 을 억지 해서 0에 가깝게 만든다 는 의도가 들어 있죠 그 다음에 로봇 오는 학습 젭 털이 불이 회당 않은 모두 만 보겠다 다 뭐 잘 안 보겠다고 이런 구도 줘 그래 툴이 구하기 잘 빠져요 뭐 보통 로우 우도는 소스 tex 활성화 없어 결합에서 것도 많습니다
영상 정리

영상 정리

1. 오늘은 오차 최적화에 대해 공부했어요.

2. 딥러닝은 층 확장과 연산을 사용해요.

3. 학습은 데이터에 높은 성능을 만들어야 해요.

4. 일반화 능력이 중요하고, 테스트 성능도 좋아야 해요.

5. 목적 함수는 보통 우도 또는 로그 우도를 써요.

6. 최적화는 목적 함수 값을 최대화하거나 최소화하는 거예요.

7. 데이터 차원이 높아 계산이 어려워요.

8. 학습에는 시간이 많이 걸리고, 효율적 방법이 필요해요.

9. 여러 최적화 기법과 규제 방법도 공부했어요.

10. 하이퍼파라미터 조정도 중요한 역할을 해요.

11. 미분 방법과 2차 미분 활용도 배웠어요.

12. 손실 함수로는 평균 제곱 오차와 교차 엔트로피를 사용해요.

13. 교차 엔트로피는 확률 예측에 적합해요.

14. 소프트맥스는 여러 클래스 확률을 계산하는 데 쓰여요.

15. 맥스 함수는 가장 큰 값을 선택하는 활성화 함수예요.

16. 분류 문제에서는 출력 노드와 확률이 중요해요.

17. 오차와 그레이디언트 계산이 학습 핵심이에요.

18. 최적화는 가중치를 반복적으로 업데이트하는 과정이에요.

19. 학습이 잘 되면 예측이 정확해지고, 성능이 좋아져요.

20. 마지막으로, 효율적이고 체계적인 최적화 방법이 필요하답니다.

최근 검색 기록