How ChatGPT Works:
ChatGPT 작동 방식 및 실습
SLIDESMANIA.COM
SLIDESMANIA.COM
Aaron Snowberger Who are you?
한국 도착: | 2006 |
한국어능력: | 4급 / 6 |
학력: | 2024, 한밭대학교, 정보통신공학과, 박사 2011, Full Sail University, 미국, 미디어 디자인, 석사 2006, University of Wyoming, 미국, 컴퓨터공학, 학사 (자격): 리액트, 컴퓨터비전, 머신러닝, 딥러닝, 자연어 처리, |
온라인 강의: | 2020, 현재 워드프레스 테마 개발 | CSS 입문 |
고등학교 강의: | 2023-2024, 충북에 있는 고등학교 2021, 익산 마이스터 고등학교, 파이썬 기초 2013-2019, 국제영재아카데미, 웹프로그래밍, 컴퓨터공학 이론, 컴퓨터 발견, 컴퓨터 A+, 로보틱스, 자바 프로그래밍, 그래픽 디자인, 출판 디자인, 디지털 시민 교육, 중학교 컴퓨터, 수학 |
대학교 강의: | 2024, 전북대학교, 수소 연료전지, 데이터 구조, 반도체 공정 2023, 한밭대학교 (대전), 고급C프로그래밍, C++프로그래밍 2023, 대전대학교, 자바, 자바웹, 데이터베이스, 유닉스 2023, 전주교육대학교, 정보사회와 소프트웨어 2023, 교통대학교 (충주), 웹프로그래밍응용 2019-2023, 전주대 / 전북대, 스마트 택: 구글 클래스룸과 메체 만든 기술 2010-2023, 전주대학교, 영어회화 |
SLIDESMANIA.COM
SLIDESMANIA.COM
SLIDESMANIA.COM
SLIDESMANIA.COM
목차
SLIDESMANIA.COM
ChatGPT 및 대규모 언어 모델 개요
ChatGPT가 어떻게 구축되고, 어떻게 작동하며, 제한 사항
1
SLIDESMANIA.COM
What is ChatGPT?
챗GPT가 무엇입니까?
SLIDESMANIA.COM
SLIDESMANIA.COM
Chat: 대화
G: Generative �(생성적)
P: Pre-trained �(사전 훈련된)
T: Transformer �(트랜스포머)
(알고리즘)
?
SLIDESMANIA.COM
SLIDESMANIA.COM
Generative (생성적)
SLIDESMANIA.COM
SLIDESMANIA.COM
Pre-trained (사전 훈련된)
SLIDESMANIA.COM
SLIDESMANIA.COM
Transformer (트랜스포머)
SLIDESMANIA.COM
SLIDESMANIA.COM
LLM : Large Language Model
대규모 언어 모델
SLIDESMANIA.COM
What is a Large Language Model? 대규모 언어 모델이란?
1. Avid reader�열렬한 독자
2. Finding patterns in text�텍스트에서 패턴 찾기
SLIDESMANIA.COM
SLIDESMANIA.COM
What is a Large Language Model? 대규모 언어 모델이란?
3. Making next letter/word predictions�다음 문자나 단어 예측
4. Updating itself to increase accuracy�정확도를 높이기 위해 모델을 �약간 업데이트
SLIDESMANIA.COM
SLIDESMANIA.COM
1. As Avid Reader 열렬한 독자
SLIDESMANIA.COM
SLIDESMANIA.COM
2. Finding Patterns 텍스트에서 패턴 찾기
1948년에는 패턴 일치 및 예측 텍스트에 대한 간단한 설명을 제공하는 "The Mathematics of Communication"이 출판되었습니다.
SLIDESMANIA.COM
SLIDESMANIA.COM
2. Finding Patterns 텍스트에서 패턴 찾기
시작점: “the” …..
임의의 페이지 열고 “the” 찾고
….. “head” …..
임의의 페이지 열고 “head” 찾고
….. “and” …..
임의의 페이지 열고 “and” 찾고
..… “frontal” …..
임의의 페이지 열고 “frontal” 찾고
…..
알 맞는 문장을 만들 수 있지만 의미 없습니다…
SLIDESMANIA.COM
SLIDESMANIA.COM
2. Finding Patterns 텍스트에서 패턴 찾기
그래서, 어휘 대신 표현을 찾으면….
시작점: “I continued walking in” …..
임의의 페이지 열고 “I continued walking in” 찾고
….. “this” …..
임의의 페이지 열고 “continued walking in this” 찾고
….. “manner” …..
임의의 페이지 열고 “walking in this manner” 찾고
..… “for” …..
임의의 페이지 열고 “in this manner for” 찾고
…..
“I continued walking in this manner for some time, and I feared the effects of the daemon’s disappointment.” (의미 있는 문장을 만들 수 있습니다.)
SLIDESMANIA.COM
SLIDESMANIA.COM
3. Next Word Predictions 다음 단어 예측
밀접하게 관련된 단어에 임의성을 도입하여 약간의 변형을 만들 수 있습니다.�You can create some variations by introducing randomness to closely related words.
하지만 우리는 이 시스템에 전적으로 의존할 수는 없습니다. 문제는 결국 원본 텍스트에 전혀 표시되지 않는 문구를 찾게 된다는 것입니다. 찾고 있는 정확한 단어를 찾을 수 없을 때에도 프로그램이 작동하려면 필요합니다.
Jesus said …
[Frankenstein] said …
SLIDESMANIA.COM
SLIDESMANIA.COM
3. Next Word Predictions 다음 단어 예측
전체 텍스트를 고려하고 다음으로 가장 가능성이 높은 단어에 투표하면 더 나은 모델을 만들 수 있다.
A better model considers the entire text and votes on the next most likely word.
시작점: “I continued walking in” …..
this
(65%)
London
(32%)
my
(17%)
the
(12%)
way
(89%)
path
(78%)
street
(21%)
manner
(5%)
SLIDESMANIA.COM
SLIDESMANIA.COM
3. Next Word Predictions 다음 단어 예측
전체 텍스트를 고려하고 다음으로 가장 가능성이 높은 단어에 투표하면 더 나은 모델을 만들 수 있다.
A better model considers the entire text and votes on the next most likely word.
시작점: “I continued walking in” …..
this
(65%)
London
(32%)
my
(17%)
the
(12%)
way
(89%)
path
(78%)
street
(21%)
manner
(5%)
SLIDESMANIA.COM
SLIDESMANIA.COM
4. Model Updating 모델을 약간 업데이트
그리고 예측 결과를 올바른 결과와 비교하면 모델을 반대로 (역전파로) 약간 업데이트합니다.
When the predicted result is compared with the correct result, update the model (backpropagation).
시작점: “I continued walking in” …..
this
(65%)
London
(32%)
my
(17%)
the
(12%)
way
(89%)
path
(78%)
street
(21%)
manner
(15%)
“I continued walking in this manner for some time…
SLIDESMANIA.COM
SLIDESMANIA.COM
채식주의자
또 다른 텍스트 생성 예
SLIDESMANIA.COM
SLIDESMANIA.COM
The Generative Step = ½
생성적 = 절반
First, the language model must understand the user's question. This means finding keywords and other particular characteristics.
This process is called “feature extraction” and is a type of deep learning.
첫째, 언어 모델은 사용자의 질문을 이해해야 합니다. 이는 키워드 및 기타 특징을 선택하는 것을 의미합니다.
이 과정을 "특징 추출"이라고 하며 일종의 딥러닝입니다.
SLIDESMANIA.COM
Chat: 대화
G: Generative �(생성적)
P: Pre-trained �(사전 훈련된)
T: Transformer �(트랜스포머)
(알고리즘)
?
먼저, 사용자의 질문을 이해
SLIDESMANIA.COM
SLIDESMANIA.COM
NLP = 딥러닝 (자연어처리)
다른 딥러닝 애플리케이션과 비교
SLIDESMANIA.COM
SLIDESMANIA.COM
이미지 처리
오디오 처리
SLIDESMANIA.COM
SLIDESMANIA.COM
데이터 처리 단계
SLIDESMANIA.COM
SLIDESMANIA.COM
데이터 처리 단계
SLIDESMANIA.COM
SLIDESMANIA.COM
이미지 처리 예
이 예제는 NLP 품사 태그, 단어 분류 및 AI 모델이 전반적인 그림을
"이해"하는 방식을 이해하는 데 도움이 될 수 있습니다.
SLIDESMANIA.COM
SLIDESMANIA.COM
오래된 프로그래밍 패러다임
규칙 기반 프로그래밍(가능한 모든 규칙이 하드 코딩됨)
고양이가…
개가…
단점?
문제?
SLIDESMANIA.COM
오래된 프로그래밍 패러다임
규칙 기반 프로그래밍(가능한 모든 규칙이 하드 코딩됨)
IBM의 딥블루: 지능적 게임에서 최초로 세계 챔피언을 이기다
1997년 5 월, IT 기기 회사 IBM에서 개발한 슈퍼컴퓨터 딥블루 (Deep Blue)가 세계 챔피언 그랜드 마스터인 가리 카스파로프 (Garry Kasparov)를 상대로 여섯 번의 체스 대국을 치릅니다. 결과는 2승 3무 1 패로 딥블루가 가리 카스파로프를 이기면서 70만 달러의 우승 상금을 차지하였습니다.
참고로 가리 카스파로프는 1985년부터 2000년까지 16년간 세계 챔피언 자리를 차지하던 선수였습니다.
SLIDESMANIA.COM
새로운 프로그래밍 패러다임
"특징 추출"
고양이는…�개는…
이렇게 생겨
아! 이 것은 고양이구나!�이것은 개구나!
이제 내 예측과 올바른 결과를 비교해 보겠습니다.
오, 제가 틀렸네요.
그러면, 내 예측 계산을 업데이트해 보겠습니다...
단점?
문제?
SLIDESMANIA.COM
새로운 프로그래밍 패러다임
"특징 추출"
구글 딥마인드의 알파고: 초고수의 직관력마저 넘어서다
2016년 3월, 인공지능이 넘볼 수 없는 인간만의 직감, 직관 영역으로 여겨지던 바둑나 분야에서 인공지능이 인간을 이기는 사건이 발생했습니다. 상금 100만 달러를 놓고 펼쳐진 대결은 알파고가 4승 1 패를 함으로써 승리를 가져 갔습니다.
바둑판에 돌이 놓일 수 있는 모든 경우의 수는 대략 2.081682 X 10170으로, 이는 우주의 원자 개수보다 많다고 합니다.
그런데 어떤 분야에서 초고수가 되면 과학적으로는 설명하기 어려운 직관력이 생기는데, 바둑은 이 직관력을 통해 사람이 인공지능을 영원히 이길것이라 믿어 왔던 영역이었습니다.
SLIDESMANIA.COM
새로운 프로그래밍 패러다임
"특징 추출"
SLIDESMANIA.COM
전체 모델
Feature extraction happens during the encoding phase of training to identify patterns and keywords.
훈련의 인코딩 단계에서 특징 추출을 통해 패턴과 키워드를 식별할 수 있습니다.
This information is then passed to the decoding generation stage to produce the results.
그런 다음 이러한 정보는 디코딩 생성 단계로 전송되어 결과를 생성합니다.
SLIDESMANIA.COM
전체 모델
SLIDESMANIA.COM
상상해 보세요. 인터넷에 존재하는 모든 텍스트 데이터를 연결하여, 언제든지 가능한 모든 조합의 일관된 생각을 즉시 조회하고 재현할 수 있다면 어떨까요? 이것이 바로 ChatGPT입니다.
SLIDESMANIA.COM
SLIDESMANIA.COM
하지만 ChatGPT와 같은 시스템은 �실제로 생성하지 않고 �모방만 합니다.
SLIDESMANIA.COM
SLIDESMANIA.COM
LLMs
응용, 기회, 장애물
LLM 장애물:
SLIDESMANIA.COM
SLIDESMANIA.COM
LLMs
응용, 기회, 장애물
LLM 기회:
SLIDESMANIA.COM
SLIDESMANIA.COM
ChatGPT 실습
다양한 예제와 함께 ChatGPT 탐색
2
SLIDESMANIA.COM
ChatGPT는 아이디어 생성을 돕는 출발점입니다.
SLIDESMANIA.COM
SLIDESMANIA.COM
텍스트 생성
SLIDESMANIA.COM
SLIDESMANIA.COM
언어 번역
SLIDESMANIA.COM
SLIDESMANIA.COM
텍스트나 콘텐츠 요약 또는 재작성
SLIDESMANIA.COM
SLIDESMANIA.COM
콘텐츠 구성
SLIDESMANIA.COM
SLIDESMANIA.COM
감정 분석(유머, 톤)
SLIDESMANIA.COM
SLIDESMANIA.COM
감정 분석(유머, 톤)
SLIDESMANIA.COM
SLIDESMANIA.COM
“모의고사 유형의 문제 만드는 법”
SLIDESMANIA.COM
SLIDESMANIA.COM
토론, Q&A
ChatGPT에 대해 더 알고 싶은 것, 궁금한 점이 있다면 무엇인가요?
3
SLIDESMANIA.COM
외국어 어휘를 공부하는 가장 좋은 방법
SLIDESMANIA.COM
SLIDESMANIA.COM
어휘가 퍼즐과 같다면…
모국어의 새로운 어휘
각 조각은:
SLIDESMANIA.COM
어휘가 퍼즐과 같다면…
외국어의 새로운 어휘
각 조각은:
SLIDESMANIA.COM
외국어 어휘를 공부하는 가장 좋은 방법
단어를 실제로 안다는 것은 무엇을 의미합니까? 특히 외국어 단어는요.
SLIDESMANIA.COM
SLIDESMANIA.COM
외국어 어휘를 공부하는 가장 좋은 방법
SLIDESMANIA.COM
SLIDESMANIA.COM
외국어 어휘를 공부하는 가장 좋은 방법
SLIDESMANIA.COM
SLIDESMANIA.COM
외국어 어휘를 공부하는 가장 좋은 방법
SLIDESMANIA.COM
SLIDESMANIA.COM
Thank you!
Fonts used: Oxygen and Yanone Kaffeesatz
SLIDESMANIA.COM