Inlee | 이인

신입사원 교육 - 인공지능 (AI) 기초지식 요약

2025년 3월 3일 - #개발

최근 몇년 동안 신입사원 교육을 위한 커리큘럼을 준비했다. 짧은 교육 기간이지만 도움이 되고자 매년 다르게 준비했는데, 올해 커리큘럼에는 AI 에 대한 기초 지식을 추가하였다.

준비한 내용 일부는 아래와 같다.


1. 개요

AI(Artificial Intelligence, 인공지능)은 인간의 지능을 모방하거나 대체할 수 있도록 컴퓨터 시스템을 개발하는 기술이며, 기계가 학습(머신러닝), 논리적 추론, 문제 해결, 자연어 이해, 시각 인식 등의 기능을 수행할 수 있도록 하는 기술을 포함.

2. 주요분야

분야 내용
머신러닝 (ML, Machine Learning) 데이터를 학습하여 패턴 인식하고 예측하는 기술. ex) 스팸 메일 필터링, 추천 시스템(넷플릭스, 유튜브)
딥러닝 (Deep Learning) 인공신경망(Artificial Neural Network, ANN)을 이용한 학습 방법. ex) 음성 인식(시리, 구글 어시스턴트), 이미지 인식(자율주행, 안면 인식)
자연어 처리 (NLP, Natural Language Processing) 인간의 언어를 이해하고 생성하는 기술. ex) 챗봇, 번역기(구글 번역, 파파고)
컴퓨터 비전 (Computer Vision) 이미지와 영상을 분석하고 이해하는 기술. ex) 얼굴 인식, 자율 주행 자동차
생성형 AI (Generative AI) 새로운 텍스트, 이미지, 음악 등을 생성하는 기술. ex) ChatGPT, 미드저니, 스테이블 디퓨전

3. 튜링테스트 (Turing Test)

1950년 엘런 튜닝이 기계가 인간과 얼마나 비슷하게 대화할 수 있는지를 기준으로 기계에 지능이 있는지를 판별하고자 하는 시험을 제안.

영화 “엑스 마키나 (Ex Machina)”가 이를 주제로 함.

4. 인공신경망 (ANN; Artificial Neural Network)

인간의 시각/청각을 본떠 만든 알고리즘으로 인간의 뉴런 구조를 소프트웨어로 구현한 알고리즘. 이 뉴런의 이용해 심층학습(Deep Learning)이 이루어지며 출력이 다시 입력이 되어 시간에 따라 연속성 (사람으로 치면 기억력)을 가진 순환신경망 (RNN; Recurrent Neural Network) 이 제시됨.

5. Attention Is All You Need

2017년 구글 브레인(Google Brain) 에서 Attention Is All You Need 라는 논문 (68481회 인용됨) 에서 순환신경망(RNN)의 느린 연산속도를 해결할 수 있는 트랜스포머(Transformer) 모델 소개.

Attention Is All You Need는 자연어 처리(NLP) 분야에서 혁신적인 전환점을 만들었고 이는 현재 인공지능 분야에서 대세로 자리잡아 사용되고 있음. 현재 ChatGPT와 같은 AI 모델의 핵심 기술로 사용.

6. GPT

Generative Pre-trained Transformer 의 약자로 생성형 AI 모델. 트랜스포머(Transformer) 아키텍처를 기반으로, 자연어를 이해하고 생성하는 능력을 가지고 있음.

6-1. 핵심개념

항목 내용
Generative (생성형) 단순히 입력을 이해하는 것이 아니라 새로운 텍스트 생성. ex) 질문에 답하기, 글쓰기, 코드 생성
Pre-trained (사전 학습) 인터넷에서 방대한 양의 텍스트 데이터를 학습한 후, 특정 작업에 맞게 추가 학습(미세 조정, Fine-tuning) ex) 기본 GPT 모델 → 법률 문서 요약, 의료 상담 등으로 추가 훈련 가능
Transformer (트랜스포머) “Attention Is All You Need” 논문에서 소개된 트랜스포머 구조를 사용. RNN/LSTM보다 빠르고, 긴 문맥을 잘 이해함. 핵심 기술: Self-Attention, Multi-Head Attention

6-2. 학습과정

항목 내용
사전 학습 (Pre-training) 인터넷의 방대한 데이터(책, 논문, 웹사이트 등)를 사용해 학습 단어 간 관계를 이해하고 문맥을 파악하는 능력 습득
미세 조정(Fine-tuning, 선택적 과정) 특정 목적(예: 고객 지원, 의료 상담)에 맞게 추가 학습. RLHF(인간 피드백 기반 강화 학습) 기법 사용

6-3. 주요특징

6-4. GPT 발전과정

버전 내용
GPT-1 (2018) 1.17 억개 파라미터 / 대규모 코퍼스를 활용한 사전 학습을 통해 언어 모델의 성능 향상 가능성을 제시 / 자연어 추론, 번역 등 다양한 작업에서 우수한 성능을 보임
GPT-2 (2019) 15억개 파라미터 / 이전 모델보다 10배 이상 큰 규모로, 텍스트 생성 능력이 크게 향상 문장 완성, 번역, 요약 등 다양한 작업에서 인간과 유사한 텍스트 생성 가능
GPT-3 (2020) 1750억개 파라미터, 대화형 AI 발전 / 매우 큰 규모의 모델로, 소수의 예시만으로도 특정 작업을 수행하는 능력 보임 코딩, 글쓰기, 질의응답 등 다양한 분야에서 활용
GPT-3.5 (2022) GPT-3의 개선 버전으로, 대화형 AI인 ChatGPT에 활용 / 더 자연스러운 대화와 향상된 이해력을 제공
GPT-4 (2023) 멀티모달 능력을 갖추어 텍스트뿐만 아니라 이미지 입력도 처리할 수 있음 / 이전 모델보다 향상된 추론 능력과 창의성을 보임
GPT-4.5 (2025) 2025년 2월 말에 발표된 최신 모델 / 이전 버전보다 환각(hallucination) 현상이 줄어들고 감성 지능이 향상 더 자연스러운 대화와 확장된 지식 베이스를 갖추었으며, 창의적인 통찰력을 생성하는 능력이 향상 / 수학적 문제 해결이나 코딩 능력에서는 일부 한계가 지적됨

7. 주요 용어

7-1. 멀티모달 (Multimodal)

멀티모달(Multimodal)은 여러 유형의 데이터를 동시에 처리할 수 있는 AI. 즉, 단순히 텍스트만 이해하는 것이 아닌 이미지, 음성, 영상 등 다양한 입력을 함께 분석할 수 있는 기술

텍스트 + 이미지 + 음성 등 다양한 데이터 동시 활용하여 더 풍부한 문맥(Context) 이해 가능, 사람처럼 다양한 감각을 조합해 더 똑똑한 AI 구현 가능

모달 (Modal)

사용예시

활용분야

7-2. RAG (Retrieval-Augmented Generation)

정보 검색(Retrieval)과 생성(Generation)을 결합한 AI 모델. 외부 지식베이스에서 정보를 검색하여, 이를 활용해 더 정확한 응답을 생성하는 기술

등장배경

동작원리

장점

활용사례

결론

7-3. 환각 (Halluciation)

AI가 사실이 아닌 정보를 생성하는 현상. 즉, 잘못된 정보, 존재하지 않는 사실, 그럴듯하지만 틀린 내용을 생성하는 문제

특징

발생원인

예시

환각 줄이는 방법

결론

8. 주요 서비스

,