LLM 5

[항해 플러스 AI] 5주차 WIL: 프로젝트 발판 마련 한 주

이번 5주차는 단순한 LLM 사용이 아니라, LLM을 더 똑똑하게 만드는 여러 가지 기술을 학습하는 주차였다.Instruction Tuning, Multi-modal LLM(MLLM), RAG(Retrieval-Augmented Generation) 세 가지를 배우면서,각 개념이 실제 서비스에 어떻게 적용될 수 있는지를 고민하는 시간이 되었다.특히 이번 주는 단순히 개념만 이해하는 것이 아니라,LangChain을 활용해 코드를 짜보고 다양한 Knowledge Source를 연결하며 직접 실습했기 때문에훨씬 더 실질적인 경험이 되었다.5주차를 지나며, 나는 LLM을 활용하는 관점이 단순히 사용하는 것을 넘어서어떻게 최적화된 지능형 시스템을 설계할 수 있을지 고민하는 방향으로 바뀌고 있음을 느꼈다.Instr..

AI/교육 2025.04.28

[항해 플러스 AI] 4주차 WIL: LLM을 활용하는 진짜 방법을 배운 한 주

이번 4주차는 지금까지 배운 걸 바탕으로, 실제로 LLM을 어떻게 활용하는지에 집중한 시간이었다. 이전까지는 Transformer 구조나 MLP처럼 모델을 직접 짜보고 실험해보는 게 중심이었다면, 이번 주는 HuggingFace 같은 라이브러리를 통해 "어떻게 더 효율적으로 써먹을 수 있을까"를 고민하게 됐다.HuggingFace 실습 - 직접 구현하지 않고도 모델을 다룰 수 있다는 점이번 주 초반엔 HuggingFace 튜토리얼을 따라가면서 Transformer 계열 모델을 학습 없이도 불러와서 사용하는 방법을 익혔다. 사실 이전까지는 모델을 하나하나 짜는 것에 집중했는데, HuggingFace를 쓰니까 오히려 모델보다 데이터를 잘 준비하는 게 더 중요하다는 걸 느꼈다.모델을 선택하고, Tokenize..

AI/교육 2025.04.20

[향해 플러스 AI] 3주차 WIL: LLM의 원리를 처음 이해

1. 이번 주 학습 내용 정리이번 3주차는 LLM을 다루기 위한 사전 준비 과정으로, Transfer Learning(전이학습)과 Pre-trained Language Model에 대한 개념을 배우는 시간이었다. 그동안 머신러닝과 딥러닝 모델이 새로운 작업을 할 때, 왜 사전학습된 모델을 사용하는지에 대한 이유를 실습과 이론을 통해 직관적으로 이해할 수 있었다.Transfer Learning은 방대한 데이터로 일반적인 언어 능력을 학습한 모델을 기반으로, 특정 과제에 맞게 추가 학습을 하는 방식이다. 이 원리는 단순하지만, 실제로는 성능 향상에 매우 중요한 역할을 한다는 것을 직접 실습을 통해 체감했다.이번 주에 중점적으로 다룬 모델은 BERT와 GPT였다. 구조적으로 BERT는 양방향 문맥을 모두 반영..

AI/교육 2025.04.15

[항해 플러스 AI] 2주차 WIL: 딥러닝 이론과 자연어 처리

1. 이번 주 학습 주제 요약2주차 학습에서는 딥러닝 모델이 자연어 처리(NLP, Natural Language Processing) 분야에서 어떻게 활용되는지를 중심으로 다루었다.자연어는 이미지나 숫자 데이터와 달리 순차성과 문맥성을 가지며, 이러한 특성을 반영할 수 있는 모델 구조에 대한 이해가 핵심이었다.이번 주차에는 RNN, Attention, Transformer 같은 구조들을 중심으로 개념을 익히고, 이를 활용한 간단한 문장 예측 실습도 함께 진행했다.2. 자연어 데이터의 특성과 입력 전처리자연어는 단어의 순서와 맥락에 따라 의미가 크게 달라지기 때문에, 기존의 MLP나 CNN과 같은 모델로는 제대로 처리하기 어렵다.이를 해결하기 위한 자연어 처리용 딥러닝 모델에서는 다음과 같은 입력 전처리 ..

AI/교육 2025.04.08

[항해 플러스 AI] 1주차 WIL: 선형 회귀부터 MLP, 과적합 해결까지

1. 이번 주 학습 주제 요약이번 주는 딥러닝의 시작점이라 할 수 있는 선형 회귀(Linear Regression) 개념부터 출발하여, 이를 다층 구조로 확장한 MLP(Multi-Layer Perceptron) 모델까지 실제로 구현하며 실습을 진행했다. 특히 예측 함수, 손실 함수, gradient 계산 방식과 같은 수학적 직관도 함께 학습하면서, 단순한 구현을 넘어선 이해를 키울 수 있었다.또한 과적합(overfitting)을 방지하기 위한 기법들인 Dropout, Weight Decay, BatchNorm, Validation/Early Stopping 등의 핵심 개념도 함께 다뤘고, 마지막에는 MNIST 손글씨 분류를 통해 실제 학습 흐름을 구현했다.2. 핵심 개념 정리🔹 선형 회귀란?가장 기본적..

AI/교육 2025.03.30