자청의 유튜브 추출기

유튜브 영상의 자막과 AI요약을 추출해보세요

챗GPT가 거짓말 할 확률 48% ??? GPT 거짓말 못하게 해봐요 | ChatGPT 활용법

찐코딩 Jin Coding

조회수 조회수 6.5K 좋아요 좋아요 212 게시일 게시일

설명

ChatGPT 거짓말 때문에 계속 써야할지 고민이시라구요? AI가 거짓말 못하게 만드는, AI 고수 찐코딩의 꿀팁 3가지 공개합니다. [타임라인] 00:00 : 인트로 00:58 : AI의 거짓말과 그 이유 3가지 03:35 : AI가 거짓말하는 근본적인 원인 05:24 : 해결책 1 07:08 : 해결책 2 10:19 : 해결책 3 13:20 : 아웃트로 🌟 찐코딩의 AI 자동화 플랫폼: https://www.jincoding.com/ "영상에서 소개한 자료 및 시나리오는 홈페이지에서 무료로 다운받을 수 있습니다." 🌟 찐코딩의 오픈카카오톡: https://open.kakao.com/o/gz3Q8LOg #chatgpt #ai #환각현상 #챗지피티 #챗gpt
자막

자막

전체 자막 보기
이 사람은 찐코딩입니다.

하루 5시간 이상 AI를 사용하죠.

얼마 전부터 ChatGPT의 뻔뻔한 거짓말 때문에 답답하고 혼란스러워 졌습니다.

지금 당장 미국 주식 시작해.

당장 테슬라 3배짜리 ETF를 매수해.

어, 어, 알았어.

어? 소이주PT, 이거 어떻게 된 거야? 다 떨어졌어.

일시적인 조정일 뿐이야.

제 주변에도 요즘 써보니까 주PT가 맛이 갔다.

너무 거짓말을 좀 심각하게 한다.

그리고 뉴스에서도 최근에 모델 환각현상이 나오면서 거짓말할 확률이 늘었다는 얘기를 엄청 많이 들으셨을 거예요.

계속 내가 주PT 써도 되는지 궁금하신 분들이 되게 많아서 오늘 영상을 만들게 됐습니다.

그래서 이번 영상에서는 도대체 왜 AI는 거짓말을 하는 것인가와 두 번째로 핵심이죠.

바로 이걸 어떻게 해결할 수 있는가를 알려드리려고 합니다.

좀 제대로 쓰는 방법을 꼭 하나 해보시면 좋을 것 같아요.

AI가 거짓말한다는 거는 첫 번째로 진짜 거짓말을 합니다.

결과가 정말 말도 안 돼요.

예를 들어 세종대왕 맥북 프로 사건, 맥북 프로 던짐 사건 들어보셨죠? 이런 말도 안 되는 거를 누나가 깜짝하지 않고 막 얘기를 하죠.

그래서 실제로 이런 거짓 판례, 거짓 자료들을 공식 석상에서 사용해서 벌금 물거나 조리 돌림 당한 케이스가 꽤 많아요.

그리고 두 번째는 얘가 자료들을 끌고 오거든요.

답을 할 때 그 자료가 이상한 경우가 있습니다.

그래서 존재하지 않는 인터넷 자료라든가 아니면은 전혀 관련 없는 자료들을 막 던져주는 거죠.

이것도 역시나 거짓말이라고 해요.

있는 용어로는 허무스메이션 환각현상이라고 합니다.

지금 현재 전 인구의 5%가 GPT 이용해서 과제를 하고 업무를 하는데 얘가 은근슬쩍 거짓말을 쏙쏙 넣는 게 진짜 소름 끼치고 사회적인 문제가 될 수 있어요.

더 끔찍한 거는 정확한 원인이 아직도 밝혀지지 않았습니다.

공식적으로는 이 세 개의 원인 때문에 AI가 거짓말하는 현상이 발생했다고 해요.

첫 번째는 데이터입니다.

AI가 데이터를 덜 먹어서 또는 너무 별로인 데이터를 먹어서 얘가 이상한 걸 학습해서 거짓말하는 거야.

이게 첫 번째고요.

두 번째는요.

AI가 업그레이드 되잖아요.

업그레이드 된다는 거는 GPT 1, 2, 3 지금 4죠.

이제 4.

5가 나왔고요.

이제 앞으로 5가 나오겠죠.

이때마다 AI 사이즈가 굉장히 커지거든요.

원래는 1조 7천억 개 정도가 GPT 4, 5에 있다고 하는데 이게 거의 10배씩 증가를 해요.

그러니까 이제 너무 모델이 커지니까 모델이 어디서부터 잘못했는지 규명이 안 된다.

이게 놀랍게도 두 번째 원인입니다.

너무 커져서 어디서부터 잘못했는지 모르겠네.

어디서부터 거짓말했는지 모르겠네.

그리고 마지막 세 번째는요.

이게 최근에 뉴스에서 가장 많이 보는 건데 GPT를 만든 오픈 AI가 O 시리즈를 최근에 공개를 했어요.

제가 이거 가지고 쇼초도 만들었는데 O 시리즈들이 굉장히 똑똑합니다.

얘는요.

그냥 GPT 모델과 달리 그러니까 다단계 출원이라는 걸 합니다.

그 이상한 다단계가 아니라 이제 한 번 생각하고 결과내고 이게 아니라 생각하고 결과내고 다시 생각하고 결과내고 단계적으로 생각을 계속해요.

그래서 결과를 만들어내서 이게 약간 출원을 많이 요하는 작업 예를 들어서 어떤 내용을 굉장히 많이 분석한다던가 사업 계획서를 쓴다던가 이럴 때 O 시리즈를 많이 쓰라고 하거든요.

근데 이게 단계적 출원을 하다 보니까 첫 번째 단계부터 거짓말을 뱉어버리면 이 거짓말이 들어가서 또 거짓말을 만들고 거짓말이 들어가서 거짓말을 만들고 이게 연세적으로 다 쓰레기들만 만들어지는 겁니다.

그래서 실제로 O 시리즈들 O3나 O4가 거짓말 활용률이 기존 모델보다 훨씬 더 높게 측정되고 있어요.

그런데 제가 생각하는 가장 큰 원인은 GPT는요.

이 거짓말을 할 수밖에 없는 구조로 만들어져 있습니다.

이게 사실 근본적인 원인은 이거거든요.

AI가 어떻게 학습됐나를 굉장히 심플하게 얘기해보자면 여러분들 핸드폰 지금 열어서 구글창에다 입력하면 자동완성 기능이 딱 뜨잖아요.

예를 들어서 나의 오늘 저녁 메뉴는? 하면서 뒤에 치킨, 피자, 파스타, 곱창, 닭발 이런 거 뜨잖아요.

이 자동완성 기계라고 생각하시면 돼요.

AI가 학습된 방식이.

그래서 얘는 어떤 인간에 대한 지식이나 아니면 지는 의미, 사실로 이런 걸 학습한 게 아니라 어떤 단어 다음에 어떤 단어가 오는 게 가장 통계적으로 맞을까? 이런 것들을 학습시켜요.

그래서 예를 들어서 오늘 저녁 메뉴는 그 다음에 김치찌개가 오는 게 맞을까? 파스타가 오는 게 맞을까? 이거를 통계적.

그러니까 우리가 데이터를 주고 AI를 학습한다고 했는데 이 데이터에서 오늘 저녁 메뉴는 뒤에 어떤 단어가 가장 많이 오는지 데이터를 꼭 계속 학습하는 거예요.

결국에는 엄청 큰 자동완성 기계를 만드는 거예요.

그래서 우리가 봤을 때 GPT 결과 보면 와우 이랬잖아요.

너무 똑똑해.

근데 사실은 자기가 먹은 데이터, 본 데이터들의 확률을 그대로 단어로 표현을 하는 거예요.

이 단어 다음에 저 단어가 나오는 것을 가장 많이 봤는데 그럼 똑같이 해야지 이렇게 하는 거예요.

그래서 보면 자동완성을 엄청 잘하다 보니까 말을 되게 잘한다고 생각해요.

여기서 포인트는 GPT가 의미나 사실 여부를 따지는 또 힘이 별로 없어요.

그래서 본질적으로 얘가 거짓말을 할 수밖에 없는 이런 패턴을 자꾸 되풀이하는 확률 기계다.

그래서 본질적으로 거짓말을 할 수밖에 없습니다.

그러면 본격적으로 어떻게 해결해야 되는지 방법을 제가 세 가지 알려드리려고 합니다.

첫 번째는 바로 첫 GPT에 있는 기능이기도 하고요.

이 기능만 고도화한 서비스도 있습니다.

바로 첫 GPT에서 이 검색 기능을 클릭하시면요.

AI의 학습된 기억에 의존을 하는 게 아니라 실시간으로 인터넷에서 데이터를 찾아와서 그 데이터를 기반으로 AI가 답변을 하게 됩니다.

그리고 철플렉시치를 아마 많이 사용하실 거예요.

저는 항상 얘기하는 게 최신 자료, 팩트 기반 자료 리서치할 때, 수치자료 찾을 때 웬만하면 펄플렉시치를 이용하는 게 훨씬 더 좋다고 얘기합니다.

이 펄플렉시치는 구글처럼 내가 검색어를 입력했을 때 예를 들어서 오늘 저녁 밥 뭐 먹지? 라고 입력했을 때 내 검색어를 가장 잘 답변해줄 수 있는 웹사이트를 찾아주는 거의 검색 엔진이라고 보시면 돼요.

근데 그 검색 엔진에 AI를 붙여가지고 그래서 내가 어떤 질문을 했을 때 내 질문에 대해서 가장 답변을 잘해줄 수 있는 웹사이트들을 찾고 내가 그거 다 보는 게 귀찮으니까 AI가 봐준 다음에 결과만 싹 정리해서 준다.

이게 바로 펄플렉시치거든요.

그래서 GPT 서치나 펄플렉시치를 사용하시면요 외부 지식을 가져오기 때문에 AI가 거짓말할 확률이 엄청 줄어들어요.

저는 펄플렉시치 쓰면서 99.

999%는 항상 원하는 답변을 얻었습니다.

이게 마치 학교 다닐 때 기억하시나요? 학교 다닐 때는 그렇게 지식이 많았죠.

세상에 대한 지식이 많았는데 이제 나이가 점점점점 드니까 기억이 잊어버리기도 하고 뭔가 이 개념과 저 개념과 섞어가지고 이상한 짬뽕이 만들어지기도 하잖아요.

그래서 우리가 어른이 된 다음에도 실시간의 정보들이나 지식들은 계속 계속 학습을 하는 것처럼 AI도 실시간으로 추가적인 정보를 계속 주입을 해가지고 AI를 좀 더 똑똑하고 거짓말하지 않게 만드는 방법이라고 생각하시면 될 것 같아요.

두 번째 방법은요 바로 프롬프트입니다.

프롬프트는 우리가 채집 PT한테 물어볼 때 질문이라고 생각하시면 돼요.

질문을 프롬프트라고 얘기를 하는데 질문을 어떻게 하느냐가 아직도 AI의 결과에 굉장히 큰 영향을 미칩니다.

그래서 제가 검색이나 리서치에 한해서 프롬프트를 어떤 식으로 작성하면 좋은지를 알려드릴게요.

프롬프트에서는요 측정한 날짜나 사건을 굉장히 특정하게 구체적으로 입력하시면 좋습니다.

예를 들어서 제가 과제가 있어요.

미국의 자동차 산업 정책 변화에 대해서 조사해요.

근데 보통 이런 거 AI한테 먼저 조사시키잖아요.

그때도 그냥 이렇게 입력하지 말고 앞에 날짜 언제 이후에 또는 어떤 사건 무슨 사건 이후에 이런 식으로 집중해야 될 대상을 굉장히 구체적으로 얘기해주면 자료를 찾아올 때 어떤 자리에 집중해야 되는지 AI가 알 수 있어요.

이렇게 검색을 하면 내가 원하는 자료들 굉장히 정확하게 찾아올 수 있습니다.

첫 번째는 날짜나 구체적인 사건을 입력하시면 좋아요.

제가 다시 말하지만 리서치나 아니면 팩트를 우리가 AI로 가지고 올 때 얘기를 하는 거예요.

그리고 우리가 이런 자료들 어디에서 가져왔으면 좋겠어라는 것도 프롬프트에 요청을 하면 좋아요.

예를 들어서 펄플렉시티에 한해서 펄플렉시티는 제가 한국어로 프롬프트를 입력하면 한국어 자료들을 우선적으로 찾습니다.

예를 들어서 한국어 뉴스 기사 등등등등 근데 만약에 외국 뉴스 기사에서 갖고 오고 싶을 수도 있잖아요.

그러면 말해주면 돼요.

영문 자료에서 찾아줘.

영문 뉴스 기사를 찾아줘.

저 같은 경우는 이제 테크 뉴스를 또 예를 들어서 엑스 있잖아요.

트위터 그런 데서 가져올 때는 트위터에서 찾아줘.

이렇게 어디 자료에서 가져오라는 걸 명시적으로 구체적으로 입력하면 됩니다.

그리고 마지막으로는 응답 형식 같은 것도 AI한테 프롬프트로 주면 진짜 베스트거든요.

왜냐면 얘가 답변을 만들 때 어느 정도의 정보량을 만들지를 프롬프트로 유출을 할 수 있어요.

그래서 만약에 얘가 너무 거짓말을 많이 한다 그러면 어디까지 할 수 있냐면 일단 검색 기능 켰죠.

외부 데이터 가지고 오죠.

그럼 두 번째로 프롬프트에다가 야 원문 자료 있잖아요.

너가 웹사이트에서 갖고 온 자료를 인용구로 그 원문을 인용구 형태로 보여달라.

이러면 AI가 빼도 박도 못합니다.

와 내가 원문을 직접 가지고 와야 되는구나 라고 요청을 했기 때문에 원문 자체를 함께 보여달라 그러면 얘가 거짓말할 확률이 진짜 굉장히 많이 줄어요.

그래서 이거는 진짜 팩트체크 너무 중요할 때 이런 프롬프트를 넣으셔도 됩니다.

그래서 예시를 지금 한번 보여드릴게요.

그래서 제가 아까 그 여러분들께 보여드린 프롬프트를 이렇게 펄플렉시 뒤에다가 넣었습니다.

그랬더니 참고한 자료는 여기 보면 출처에 참고한 자료인데 다 영어잖아요.

영어로 잘 갖고 왔고요.

답변을 실제로 보시면요.

얘가 답변 만든 다음에 여기 보면 실제로 그 웹사이트에 있는 원문을 이렇게 인용구 형태로 갖고 옵니다.

제가 원문은 영어로 갖고 오라고 했거든요.

진짜 원문 영어로 이렇게 확인도 할 수 있고요.

이렇게 하면 얘가 거짓말할 수가 없겠죠.

원문에서 갖고 왔으니까.

이런 식으로 요청을 하면 됩니다.

마지막 세 번째는요.

나 AI를 좀 한 단계 업그레이드하고 싶다.

아니면 나 평소에 AI 좀 많이 쓴다 하시는 분들을 위해서 준비했습니다.

내가 AI를 그렇게 빡세게 쓰지 않는다.

나는 좀 기본으로 괜찮다 하시는 분들은요.

제가 알려드린 1번, 2번만 평소에 사용을 하셔도 AI의 거짓말하는 거를 굉장히 많이 낮추실 수 있고요.

지금부터 제가 말씀드리는 팁은요.

한 단계 나의 AI를 업그레이드하고 싶다.

아니면 내 생활 습관을 좀 더 AI 인텐시브하게 좀 바꾸고 싶다 하시는 분들한테 맞아요.

이거는 제가 사용을 많이 하는 툴인데.

결론부터 말하면 노트북 LM입니다.

구글에서 만든 노트북 LM이고요.

이거와 동일한 원리로 나온 서비스들이 ChatGPT의 GPTS고요.

그 다음에 Perplexity의 Space입니다.

이 세 가지 모두 굉장히 좋은 툴인데.

저는 개인적으로는 노트북 LM을 사용해서 정말 많은 것들을 하고 있습니다.

이 세 가지 서비스의 공통점은 뭐냐.

불신이 많다는 겁니다.

나는 온라인의 데이터를 신뢰하지 않아.

이게 기본적인 논조고요.

그래서 데이터를 우리가 직접 줄 것입니다.

노트북 LM 같은 경우는 내가 AI한테 줄 데이터를 내가 고를 수도 있고.

AI한테 찾아오라고 말할 수도 있어요.

저는 이 두 개를 동시에 같이 사용하고 있습니다.

제가 왜 이 서비스들을 추천드리냐면.

AI 시대로 오면서부터 온라인에 가짜 데이터나 신뢰할 수 없는 데이터가 너무 많이 양상이 되고 있어요.

여러분도 느끼셨겠지만 거짓 데이터도 너무 많고요.

그 다음에 비슷한 데이터를 AI로 계속 찍어내다 보니까.

온라인에 쓰레기 데이터가 너무너무 많습니다.

그래서 저는 데이터는 내가 직접 선별할 거야라는 주의예요.

그렇게 해야지 AI 경험이 훨씬 잘 나오거든요.

마치 여러분들 친구 중에서 마라탕이나 요하정 토핑을 기가 막히게 고르는 친구들 있잖아요.

아 마라탕은 내가 좀 잘 알지.

그래가지고 마라탕에 이거 이거 토핑 넣으면 진짜 맛있어.

저도 이 AI 쓸 때 데이터 토핑은 다 내가 고를 거야.

이런 부심이 있어요.

여기 출처에 제가 신뢰하는 데이터.

유튜브가 될 수도 있고 웹사이트가 될 수도 있고 PDF가 될 수도 있고 텍스트로 넣어도 돼요.

여기에다가 제 자료를 전부 다 모아놓습니다.

그러면 AI가 내가 제공한 자료에서만 답을 찾기 때문에 거짓말할 확률이 거의 없어요.

이 수준도 굉장히 좋은 수준으로 답변을 해주고 있습니다.

제가 블로그를 쓰거나 아니면 유튜브 스크립트 지금 스크립트를 쓰거나 아니면 뭐 리서치를 하거나 아니면 강의 자료들을 만들 때도 전부 다 노트북 LM만 사용하고 있습니다.

저한테는 너무너무 유명한 줄이고요.

그래서 이제 AI를 사용할 때 내가 신뢰할만한 데이터를 좀 찜꽁을 해놓고 그 위에다가 AI를 얹었을 때 거짓말 거의 하지 않고 굉장히 좋은 퀄리티로 나오게 됩니다.

노트북 LM이랑 펄플렉시티 스페이스 꿀팁들이 많거든요.

그래서 여러분들 댓글에다가 찐코딩 일해라 라고 써주시면 제가 모든 사람들이 원하구나라는 걸 알고 열심히 일해서 또 다음 편에 올릴게요.

보고 싶으시면 댓글에다가 찐코딩 일하라고 남겨주세요.

오늘 AI 거짓말하는 거 그리고 어떻게 개선할 수 있을지 알아봤는데 AI 이거 못 쓰겠네 안되겠네 이런 마음을 가지라고 만든 영상은 아닙니다.

그래서 AI한테 대화를 하는 습관 그 다음에 어떤 일을 할 때 AI 이거 이거 이거 써서 해결하는 습관이 나중에 큰 차이를 만들다는 걸 알았어요.

프롬포트 엔지니어링을 열심히 배울 필요도 없거든요.

근데 내가 오늘 업무를 할 때 5분 10분만 투자를 해서 프롬포트를 두세 번만 바꿔보는 거예요.

이런 식으로 프롬포트 쓸 때 내가 원하는 결과를 더 잘 주구나라는 게 매일매일 이게 채택이 되면은 AI랑 어떻게 소통해야 되는지 감이 느껴져요.

그래서 결국에는 이게 습관의 문제인 것 같아요.

그러니까 오늘 영상도 여러분들이 하루에 한 번씩 보세요.

검색키는 키고 프롬포트 제가 오늘 말씀드린 대로 입력하고 또는 더 한단계 나가서 노트북 LM 써보고 이 세 가지가 익숙해질 때까지 이 영상을 하루에 한 번씩 보세요.

습관으로 만드세요.

아시겠죠? 그게 이제 각 잡고 공부하는 것보다 훨씬 더 유용합니다.

마지막에 잔소리가 됐는데 또 다음 시간에 만나도록 하겠습니다.

그럼 안녕
영상 정리

영상 정리

1. 이 사람은 찐코딩이고 하루 5시간 AI를 사용해요.

2. 최근 ChatGPT의 거짓말 때문에 답답함을 느꼈어요.

3. 미국 주식이나 테슬라 ETF를 바로 사라고 권유하는 경우가 많아요.

4. 그런데 AI가 거짓말하는 사례가 늘어나고 있어요.

5. AI는 가짜 정보와 환각현상으로 거짓말을 할 수 있어요.

6. AI가 거짓말하는 이유는 세 가지로 설명돼요.

7. 첫째, 데이터가 부족하거나 부정확해서 그래요.

8. 둘째, AI 모델이 커지면서 어디서 잘못됐는지 몰라요.

9. 셋째, 오픈AI의 O 시리즈는 단계적 사고로 거짓말 가능성이 높아요.

10. 근본 원인은 AI가 통계적 자동완성 기계이기 때문이에요.

11. AI는 의미나 사실을 따지지 않고, 확률대로 답변해요.

12. 그래서 거짓말을 할 수밖에 없는 구조예요.

13. 해결 방법은 세 가지가 있어요.

14. 첫째, 실시간 인터넷 검색 기능을 활용하세요.

15. 둘째, 프롬프트를 구체적으로 작성하세요.

16. 셋째, 신뢰할 데이터만 제공하는 노트북 LM을 쓰세요.

17. 노트북 LM은 내가 선택한 자료로만 답변하게 해요.

18. 이렇게 하면 AI가 거짓말할 확률이 크게 줄어요.

19. 일상에서도 프롬프트와 실시간 검색을 습관화하세요.

20. 하루에 한 번씩 영상 보고 연습하는 게 좋아요.

21. 습관이 되면 AI와 더 잘 소통할 수 있어요.

22. AI는 완벽하지 않지만, 적절히 활용하면 큰 도움이 돼요.

23. 다음 영상도 기대하고, 댓글에 요청 남겨주세요.

최근 검색 기록