반응형 인공지능/LLM5 GPT 구조에 대한 초간단 리뷰 GPT 구조에 대한 초간단 리뷰 GPT(Generative Pre-trained Transformer)란 무엇인가? GPT는 자연어 처리(Natural Language Processing, NLP) 분야에서 각광받는 인공 지능 모델 중 하나입니다. 트랜스포머(Transformer) 아키텍처를 기반으로 하며, 대규모의 데이터로 비지도학습(Unsupervised Learning)을 통해 사전 훈련(Pre-trained)되어 있습니다. 이 모델은 다음 토큰 예측(Next Token Prediction)을 통해 훈련되며, 이는 주어진 텍스트 뒤에 이어질 단어나 문자를 예측하는 것을 목표로 합니다. 이 과정을 통해 언어의 근본적인 패턴을 학습하고, 이를 다양한 하위 작업에 파인튜닝(Fine-tuning)하여 활용.. 2024. 2. 9. Whisper large v3 모델 실행하기 WSL과 Docker 상에서 Hugging Face Whisper Large v3 모델 실행하기 Whisper는 음성 인식 및 음성 번역을 위한 사전 훈련된 모델로, 많은 양의 데이터를 기반으로 학습되어 다양한 데이터와 도메인에서 잘 일반화됩니다. Whisper large-v3는 이전 모델과 비슷한 아키텍처를 가지지만 입력 데이터 표현에서 차이가 있고 새로운 위한 언어 토큰이 추가되었습니다. 이 모델은 더 많은 데이터를 사용하여 학습되었으며, 영어 전용 및 다국어 데이터를 기반으로 다양한 모델 크기로 제공되며 Hugging Face Hub에서 사용 가능합니다. https://huggingface.co/openai/whisper-large-v3 openai/whisper-large-v3 · Hugging .. 2024. 1. 20. LLM 학습과정에서 RLHF 란? RLHF(Reinforcement Learning from Human Feedback) 란 RLHF(Reinforcement Learning from Human Feedback)는 인간의 피드백을 통해 대규모 언어 모델(Large Language Models, LLMs)을 미세 조정하는 고급 기술입니다. 이 접근 방식은 모델의 성능을 인간의 평가를 기반으로 향상시키는 데 유용하게 사용될 수 있습니다. RLHF의 과정 모델 생성: 먼저, 사전 훈련된 모델을 기반으로 초기 어시스턴트 모델을 생성합니다. 이 모델은 일반적인 언어 이해 능력을 가지고 있습니다. 세밀한 조정 단계 2 (Fine-tuning Phase 2): 이 단계에서 모델은 특정 작업에 대한 이해를 심화시키기 위해 추가적인 훈련을 받습니다. 비.. 2024. 1. 18. LLM 의 기본 구조와 모델 대규모 언어 모델(Large Language Model, LLM)의 구조와 작동 원리 대규모 언어 모델(LLM)은 최근 몇 년간 인공지능 분야에서 눈부신 발전을 이루었습니다. 이 포스팅에서 LLM의 기본 구조와 작동 방식, 그리고 이 모델들이 어떻게 훈련되는지에 대해 간단히 정리합니다. 기본적인 내용은 "Andrej Karpathy" 님의 유튜브 영상의 내용을 참고 하였습니다. LLM 구조와 동작원리 LLM의 기본 구조 LLM은 크게 두 가지 주요 파일로 구성됩니다: 파라미터 파일과 이 파라미터를 실행하는 코드입니다. 예를 들어, Llama2 70b 모델은 700억 개의 파라미터를 포함하고 있으며, 이는 메타 AI에 의해 개발된 모델입니다. 이러한 파라미터는 신경망의 'Weight'을 나타.. 2024. 1. 18. LLama.cpp 설치하고 실행해보기 LLama.cpp 설치하고 실행해보기 Huggingface 최신 모델인 Upstage의 SOLAR를 llama.cpp를 사용하여 실행하는 방법에 대해 알아보겠습니다. 이 예제에서 사용된 SOLAR-10.7B 모델은 107억 개의 매개변수를 가진 강력한 언어 모델로, 자연어 처리(NLP)에서 탁월한 성능을 자랑합니다. 기존의 대형 모델들과 비교하여도 뛰어난 성능을 보이며, 간단한 미세 조정을 통해 이를 더욱 향상시킬 수 있습니다. 이 튜토리얼은 WSL2에서 Ubuntu 22.04와 Python 3.10.12 환경에서 테스트되었습니다. 사전에 transformer 와 huggingface-cli 가 설치되어있음을 가정합니다. llama.cpp 설치하기 llama.cpp 소스 코드 다운로드 및 빌드 먼저, l.. 2024. 1. 14. 이전 1 다음 반응형