본문 바로가기

분류 전체보기

(134)
62일차. Advanced RAG - Retriever & Reranker 더보기 62일 차 회고.  이번 단위 프로젝트에서 일단 유튜브에서 자막 데이터를 가져와서 정제하게 되었다. 영상 개수도 많고, 유튜브는 중간에 인증? 에러도 뜨는 경우가 있어서 조금 문제가 생길 수도 있을 것 같지만 일단 해보기로 했다.    1. Advanced RAG  1-1. Retriever Loaderfrom langchain_community.document_loaders import TextLoaderloader = TextLoader(DATA_PATH+".txt")docs = loader.load() Splitterfrom langchain.text_splitter import RecursiveCharacterTextSplittersplitter = RecursiveCharacterText..
61일차. RAG - Native RAG(Vector DB) 더보기 61일 차 회고.  단위 프로젝트 주제는 재료 기반 레시피 검색 서비스로 정해졌다.    1. Native RAG  1-1. Vector DB Vector DB벡터를 고차원 공간의 포인트로 저장하고, 입력 벡터와 유사한 벡터를 효율적으로 검색한다. Vector Embedding텍스트, 이미지, 오디오 등 다양한 데이터를 컴퓨터가 이해하고 처리할 수 있도록 고차원 수치 벡터 형태로 변환한다. Vector DB 동작 원리Indexing임베딩된 벡터를 검색 효율을 높이기 위한 데이터 구조에 매핑한다.Querying유사도 함수(ex. 코사인 유사도, 유클리디안 거리등)를 적용하여 입력 벡터와 가장 유사한 벡터들을 찾는다.Post Processing검색된 후보 중 실제로 가장 유사한 벡터를 최종적으로 선별..
60일차. RAG - Native RAG(Loader, Splitter) 더보기 60일 차 회고.  이제 세 번째 단위 프로젝트를 시작해야 해서 주제를 생각해 보기로 했다. 주제는 LLM을 연동한 내외부 문서 기반 질의응답 시스템인데, 이전 기수들의 결과물을 봐도 생각나는 게 없다.    1. RAG  1-1. RAG LLM 문제점모델 환각 현상(Model Hallucination Problem)LLM은 확률에 기반하여 텍스트를 생성한다.충분한 사실 검증이 없다면, 일관성이 없지만 사실인 것 같은 내용을 생성할 수 있다.적시성 문제(Timeliness Problem)최신 데이터가 훈련에 포함되지 않을 수 있다. 데이터 보안 문제(Data Security Problem) RAG(Retrieval Augmented Generation)새로운 지식을 추가하여 LLM이 올바른 답변을..
[플레이데이터 SK네트웍스 Family AI 캠프 10기] 13주차 회고 13주 차 학습  Fine Tuning DeepSpeedDeepSpeed오픈 소스 딥러닝 최적화 라이브러리NLP를 위한 LLM 학습의 효율성과 속도 개선주요 기능Model Scale모델 분할Speed데이터 병렬 처리Scalability모델 학습 가속UsabilityZeRO 최적화분산 학습 과정에서의 불필요한 메모리 중복 제거 AccelerateAccelerate딥러닝 분산 훈련 설정 및 관리 라이브러리대규모 모델 학습 시 고려 요소배치 사이즈 선택Gradient AccumulationGradient CheckpointingMixed Precision TrainingOptimizer 선택Data PreloadingDeepSpeed ZeROtorch.compileHF PEFT(Parameter Efficie..
59일차. 프롬프트 엔지니어링 - LangChain(Output Parser & LCEL) & LLM 프로젝트 더보기 59일 차 회고.  오늘 SQLD 최종 합격 발표가 나서 이제 교육기간 동안 취득한 자격증이 2개가 됐다. 너무 쓸데없이 많이 자격증을 딴 것 같기도 한데 그래도 이 지식들을 기반으로 데이터 분석을 해보면 좋을 것 같다. 그리도 내일 빅데이터분석기사 시험이 있어서 일단 끝까지 열심히 공부해야 할 것 같다. 기출문제랑 모의고사를 풀었더니 합격점은 넘었는데 그래도 불안해서 최대한 많이 풀고 오답을 줄여야겠다.     1. LangChain  1-1. Output Parser Install!pip install -U langchain langchain-community langchain-core langchain-openai OpenAI Keyimport osos.environ['OPENAI_API_K..
58일차 - Fine Tuning - LLM 평가지표 & 프롬프트 엔지니어링 - LangChain(Prompt & Model) 더보기 58일 차 회고.  오늘부터 LangChain에 들어가서 수업 시간 내내 바빴다. 그래서 오늘 풀어야 할 양을 많이 끝내지 못해서 걱정이 된다. 공부할 시간은 내일까지밖에 없어서 최대한 할 수 있는 만큼 해봐야 할 것 같다. 그리고 LLM 프로젝트에서 유튜브 캡션 정보를 다운받아야 하는데 bot이 아니라고 증명하라고 해서 Colab에서 하다가 Runpod로 옮겨서 했다.     1. LLM 평가지표  1-1. 기계적 평가지표 기계적 평가지표사람이 개입하지 않고, 알고리즘을 통해 자동으로 점수를 산출한다. BLEU(BiLingual Evaluation Understudy)기계 번역의 품질 평가생성된 문장과 정답 문장의 n-gram 일치율을 기반으로 평가한다.n-gram Precision = (생성된..
57일차. Fine Tuning - PPO & DPO & LLM 프로젝트 더보기 57일 차 회고.  어제 빅데이터분석기사 기본서를 다 보고 기출문제 풀이에 들어갔다. 그런데 빅데이터분석기사 생긴 지 별로 안 됐기 때문에 기출문제만 푸는 걸로는 시험을 보기에 부족하다고 해서 내가 공부한 내용을 확인하는 방식으로 풀려고 한다.    1. PPO  1-1. RLHF RLHF(Reinforcement Learning from Human Feedback)인간 피드백을 활용하여 Agent가 더 나은 정책(Policy)을 학습한다. 강화학습환경(Environment)과 상호작용하며 상태(State)에 따라 행동(Action)을 선택하고, 그에 따른 보상(Reward)을 기반으로 학습한다. RLHF 학습 프로세스Supervised Fine Tuning데모 데이터를 수집하여 지도 학습(Sup..
56일차. Fine Tuning - Prompt & Quantization & PEFT & GGUF 더보기 56일 차 회고.  옷을 따듯하게 입어서인지 아니면 피곤해서인지 하루 종일 졸렸던 것 같다. 최대한 공부를 일찍 끝내고 일찍 자야 할 것 같다.    1. Prompt  1-1. Prompt Prompt(프롬프트)AI 모델에게 원하는 답변을 얻기 위해 입력하는 명령어나 질문 프롬프트 생성 방법Manual Search Prompt사용자가 직접 프롬프트를 작성하여 원하는 정보를 검색한다.Auto Search PromptAI 또는 시스템이 사용자의 질문을 분석하여 자동으로 최적의 프롬프트를 생성한다. 프롬프트 형태Hard Prompt명확하고 구체적인 지시를 포함한 프롬프트자연어 형태의 이산적인 값을 가진다.Soft Prompt유연하고 개방적인 지시를 포함한 프롬프트실수로 이루어진 연속적인 값을 가진다...