Stable Diffusion Fine-Tuning 기법
·
공부 정리/인공지능
Sttable Diffusion Fine-Tuning - 적용 사례이커머스 : 제품 이미지 자동 생성으로 카탈로그 제작 효율화게임 개발 : 컨셉 아트 및 게임 에셋 생성 시간 단축패션 디자인 : 새로운 디자인 아이디어 빠르게 시각화 - 필요성 특정 스타일이나 주제에 맞춘 이미지 생성 요구 증가.기존 모델을 특정한 스타일이나 주제에 맞게 조정하여 원하는 결과를 어디 위해 사용. - 프로세스1. 데이터 준비 : 이미지와 텍스트 프롬프트 쌍 준비2. 모델 선택 : Stable Diffusion 모델 선택 ( 1.4, 1.5, 2.1, SDXL 등 )3. 하이퍼파라미터 설정 : 학습률, 배치 크기 등 설정4. 학습 실행 : 준비된 데이터로 모델 미세 조정 시작 Fine-Tuning 주요 방법- Dreamboot..
MBTI는 사람이란 객체를 임베딩한거 아닐까?
·
잡글/취미
특정 문장을 여러 차원의 벡터로 임베딩하고그 임베딩된 벡터를 통해 거리나 유사도를 판단할 수 있다. MBTI도 사람을 4개의 차원의 수치로 나타내는것이지 않은가? 가령 뭐 누군가가 I 70% N 80% T 80% P 90% 막 이러면 ENTP ( 20% 90% 70% 80% )의 경우 아 나랑 비슷하니까 가까운 성격이군 ESFJ ( 10% 30% 20% 20% ) 는 아 나랑 먼 성격이군 이런식으로 보지 않은가 특정 데이터나 개체를 숫자 집합으로 표현하고숫자로 표현하기 때문에 거리나 유사도를 판별하는 임베딩 모델과 완전 동일하다. MBTI는 사람이란 객체를 4차원 벡터로 임베딩한거 아닐까? 특정 텍스트를 여러 차원으로 임베딩해서 유사도 비교하듯이 걍 사람도 4차원 수치로 어 나랑 T 수치가 내적할..
[ 인공지능 ] LLM 관련 정리
·
공부 정리/면접 준비
- 개인적인 MCP, A2A 정리 MCP - 도구와 함수 관련, 일종의 코드 패키지 내지 라이브러리A2A - 개별 서비스 관련, 일종의 홈페이지 내지 모바일 어플 - 임베딩 딥러닝 모델이 데이터를 표현하는 방식. 데이터를 그 의미를 담아 여러 개의 숫자의 집합으로 표현하는 것 - 검색 알고리즘 희소 검색 : 문서와 쿼리를 희소 벡터로 표현- TF-IDF : TF 특정 단어 얼마나 자주, IDF 전체 문서에서 얼마나 희귀한지- BM25 : TF-IDF 개선. 문서 길이와 빈도 영향 정교히 조정 밀집 검색 : 문서와 쿼리를 고차원 밀집 벡터 형태로 표현. 존재 빈도 고려 희소와는 달리 의미와 문맥도 고려.트랜스포머 기반 임베딩 모델을 통해 텍스트를 의미공간에 매핑. ( 워드투벡 ) 앙상블 검색 ..
[ 인공지능 ] PEFT 학습
·
공부 정리/면접 준비
PEFT ( Parameterized Efficient Fine-Tuning ) 은 사전 학습된 대형 언어 모델을 특정 작업에 맞게 효율적으로 미세 조정하는 기법입니다. PEFT 방법은 전체 모델을 재학습하는 것이 아니라, 모델의 특정 파라미터만을 조정함으로써 학습 효율을 높이고 계산 자원을 절약할 수 있습니다. PEFT는 학습시간을 단축하고 메모리 사용량을 줄이는데 매우 효과적입니다. - PEFT 원리PEFT의 핵심 아이디어는 사전 학습된 모델의 일부 파라미터를 고정하고, 나머지 파라미터만을 미세 조정하는 것.PEFT는 기존의 FFT 보다 적은 자원으로도 높은 성능을 유지할 수 있습니다. - LoRALoRA( Low-Rank Adaptation )의 핵심 아이디어는 모델의 일부 파라미터를 저차원 공간으..
[ 인공지능 ] sLLM을 학습하기 위한 병렬 처리 방법 ( FFT )
·
공부 정리/면접 준비
1. DP ( Data Parallel )동일한 딥러닝 모델 복사본을 여러 GPU에 배치하고 병렬로 학습 시키는 방법.가장 기본적인 방법. DP를 사용하면 동일한 모델의 복사본이 각 GPU에 배치되고, 미니배치 데이터를 여러 GPU에 나누어 병렬로 학습. 장점쉬운 구현프레임워크에서 제공하는 데이터 병렬화 기능을 통해 복잡한 코드 변경 없이 병렬 처리 손쉽게 구현 가능.효율적인 자원 활용여러 GPU 동시에 활용하여 학습 속도를 크게 향상시킬 수 있으며, 더 큰 모델 학습 및 대규모 데이터 처리에 적합.단점비효율적인 기울기 집계GPU 간 기울기 집계 과정에서 네트워크 통신 오버헤드가 발생하여 전체 학습 속도가 느려질 수 있음.메모리 낭비각 GPU가 동일한 모델 복사본을 가지므로 모델 크기가 큰 경우 메모리 ..
여러 RAG 기법
·
데이터 사이언스/RAG 엔지니어링
1. Adaptive RAG질문의 복잡도, 난이도에 따라서 가장 적합한 검색 및 생성 전략을 동적으로 선택하는 방법 단순한 질문, 좀 가벼운 LLM 입장에서 답변하기 쉬운 그런 단순한 질문 같은 경우 단순한 구조의 RAG 체인을 사용.복잡한 질문, 좀 풀어내기 어려운 질문에 대해서는 반복적으로 여러번 RAG 전략을 사용하는 기법.문제의 난이도에 따라서 레그 전략을 다르게 가져가는 방법. Adaptive RAG 작동 방식1. 사용자 질문의 복잡성 수준을 분석2. 분석 결과에 따라 가장 적합한 처리 전략을 선택 - 단순 질문 : 기본 LLM 또는 단순 검색 - 중간 복잡성 : 단일 단계 검색 증강 LLM 사용 - 복잡한 질문 : 여러 단계의 검색과 추론을 수행3. 선택된 전략에 따라 질문을 ..
간단 시간복잡도
·
공부 정리/이것저것
Python의 List 연산에 대한 시간복잡도   Indexarr[i]O(1)Lengthlen(arr)O(1)Appendarr.append(4)O(1)Poparr.pop()O(1)Slicearr[a:b]O(b-a)Extendarr.extend(...)O(len(...))Insertarr.insert(i, v)O(N)Deletedel arr[i]O(N)Poparr.pop(i)O(N)ReverseArr.reverse()O(N)Sortarr.sort()O(N LogN)Iterationfor i in arr:O(N)Storearr[i] = vO(1)  Python Dictionary 연산의 시간복잡도   Indexd[k]O(1)Stored[k] = vO(1)Lengthlen(d)O(1)Deletedel d[k]..
간단 선형대수 용어 정리
·
공부 정리/면접 준비
차원의 저주 (The curse of dimensionality) - 데이터 학습을 위해 차원이 증가하면서 상대적으로 데이터가 Sparse해지고 모델의 성능이 떨어지는 현상 차원 축소 (Dimensional Reduction) - 고차원 데이터를 저차원 데이터로 변환하는 방법 - Feature Selection (특성 선택): 통계적인 방법을 이용해 feature들의 중요도에 순위를 정해서결정하는 방법 (ex. 상관분석, 전/후진선택 등) - Feature Extraction (특성 추출): 기존 Feature들을 이용하여 유용한 Feature를 새롭게 생성하는 방법 (ex. PCA, LDA) PCA와 LDA- PCA(Principal Component Analysis, 주성분 분석) : 변수 간 상관관..
포카칩인심
'분류 전체보기' 카테고리의 글 목록