전체 요약:
안재만 대표는 베슬에이아이에서 진행하는 세미나 발표에서 자사의 프라이빗 LLM(Language Learning Models)에 대해 설명합니다. 그는 파인튜닝과 배포 과정 및 LLM을 사용하는 주요 이유들에 대해 강조하며, 특히 프라이버시, 컨트롤, 코스트 절감을 위해 필요성을 강조합니다. 또한, LLM을 개선하는 기술들(파인 튜닝, 레그, 옵티마이제이션 등)과 이를 효과적으로 운영하기 위한 파이프라인의 중요성을 언급하며 이에 대한 베슬에이아이 플랫폼의 솔루션을 제공합니다.
목차 및 세부 내용:
1. 프라이빗 LLM의 필요성
– 프라이빗 LLM은 비용 절감, 프라이버시 보호, 완전한 사용자 컨트롤을 가능하게 하며, 조직의 특정 데이터와 요구 사항에 맞게 모델을 맞춤화할 수 있습니다. 데이터 공유에 대한 걱정 없이, 내부 데이터로 LLM을 구축하고자 하는 수요가 증가하고 있습니다.
2. LLM 파인튜닝 방법
– 파인튜닝은 프리트레인된 언어 모델에 조직의 특정 데이터를 추가로 학습시켜 모델을 더 똑똑하게 만들고 비용 효율적으로 운영하는 과정입니다. 기존 모델을 유지한 채 필요한 부분만 추가 학습시켜 모델의 효율성을 높이는 테크닉들이 다양하게 소개되었습니다.
3. 레그(Retrieval Augmented Generation) 기법
– 레그 기법을 사용하면 LLM이 데이터베이스에서 정보를 검색하여 답변에 사용할 수 있게 됩니다. 이는 데이터의 출처가 중요한 분야에서 유용하며, 더 정확한 답변을 생성하는 데 도움을 줍니다.
4. LLM 운영 최적화
– LLM 길이를 줄이거나(Quanization), 특정 작업에 특화된 최적화 기법(예: Flash Attention)을 사용하여 운영 비용을 절감하고 응답 시간을 개선하는 방법들을 살펴보았습니다.
5. 베슬에이아이의 플랫폼
– 베슬에이아이의 플랫폼에서는 LLM 개발과 운영을 위한 다양한 도구가 제공되며, 클릭 몇 번으로 최신 AI 모델을 즉각적으로 파인튜닝하고 배포할 수 있는 기능을 제공합니다. 자동화된 파이프라인 구축을 통해 모델 운영을 간편하고 비용 효율적으로 만들 수 있습니다.
안재만 CEO가 소개하는 이 영상은 커스텀 LLM의 파인튜닝과 배포 방법을 통해 데이터 보안과 비용 절감을 실현할 수 있는 필요성을 강조합니다. 프라이빗 LM 운영을 통해 비용을 50배에서 100배 이상 절감하고, 데이터 품질 향상을 위한 자동화된 파이프라인
의 필요성도 언급됩니다. 뿐만 아니라, 다양한 기술적 솔루션을 통해 LM의 성능을 최적화하는 방법들을 제시합니다. 앞으로의 AI 모델 운영을 위한 플랫폼의 중요성을 인식하게 해주며, 스타트업들이 이를 통해 성과를 내고 있음을 보여줍니다. 이 정보를 통해 독자는 LLM을 더 효율적으로 활용하는 방법을 배우고, 최신 AI 기술 동향을 파악할 수 있게 됩니다.
핵심 용어
- MLOps: MLOps는 머신러닝(ML)과 운영(Operations)의 합성어로, AI 모델을 개발하고 배포하는 모든 과정을 관리하는 방법론이다. 이 개념은 소프트웨어 개발의 DevOp…
1. 🤖 커스텀 LM 파인튜닝과 배포에 대한 서론

- 발표자는 베슬 AI의 안재만 CEO로서, ML 및 LM 플랫폼을 중점적으로 다루고 있다.
- 이번 발표는 커스텀 LM의 파인튜닝 및 빠르고 쉬운 배포를 주제로, 기본 개념들을 브리핑할 예정이다.
- 발표 내용은 이전 컨퍼런스에서 다루었던 내용과 일부 겹칠 수 있으나, 핵심 개념과 실질적인 방법론을 제공하는 데 집중한다.
- ML 및 LM 운영을 위해 스타트업들이 베슬 AI의 플랫폼을 사용하여 LM을 학습하고 배포 중이며, 경험을 바탕으로 정보를 제공한다.
2. 🔐 프라이빗 LM의 필요성과 장점

- 프라이빗 LM을 만드는 주된 이유는 프라이버시 문제, 비용 절감, 그리고 데이터에 대한 통제의 세 가지 주요 요소가 있다.
- 첫 번째로, 일반적인 퍼블릭 모델을 사용할 경우 내부 정보를 보호하기 어려워, 데이터 보안을 위해 프라이빗 LM의 사용이 필요하다.
- 두 번째로, 프라이빗 LM을 통해 기업 맞춤형으로 파인 튜닝과 모델 최적화를 할 수 있어, 필요에 맞는 모델 관리가 가능하다.
- 세 번째로, 프라이빗 LM 운영 시 비용이 기존보다 50배에서 100배 이상 저렴하게 운영할 수 있어, 상당한 비용 절감 효과를 기대할 수 있다.
- 이를 통해 프라이빗 LM의 운영 목표는 더욱 똑똑한 모델 구축으로 향상되며, 이러한 기술적 접근 방법에 대한 심도 있는 논의가 필요하다.
3. 🚀 파인 튜닝의 필요성과 기술적 구현

- 파인 튜닝은 이미 공개된 일반적인 LLM 모델에 특정 데이터를 추가하는 과정으로, 특정 형태의 답변을生成하기 위해 필수적이다.
- LLM은 단순한 프롬프트 입력으로 원하는 형식의 답변을 제공하기 어렵기 때문에, 파인 튜닝을 통해 더 정확하게 요구되는 정보를 제공할 수 있다.
- 실제 테스트 결과에서, 6~7권의 책 데이터를 사용해 미스트랄 7 빌리언 모델을 파인 튜닝했을 때, GPT-4보다 훨씬 더 좋은 성능을 나타내며, 파인 튜닝의 효과를 입증하였다.
- 파인 튜닝 과정에서는 로라와 도라 같은 방법을 활용해 파라미터 일부만 조정하고, 특정 데이터 세트에서 효율적인 학습이 가능하게 한다.
- 최종적으로, 잘 정제된 데이터와 적합한 프롬프트 설정을 통해 약 10~100달러 내외의 비용으로 GPT-4 수준의 성능을 달성할 수 있다는 것을 보여준다.
4. 🧠 레그 기술의 이해와 활용

- 레그 기술은 벡터 디비를 참조하여 LM이 질문에 대한 관련 정보를 효과적으로 검색하고 결과를 산출하는 방법이다.
- 이 기술의 주요 이점은 사용자가 질문했을 때 가장 유사한 정보를 찾고 출처를 명확히 제공할 수 있다는 점으로, 금융이나 법률과 같은 정보의 출처가 중요한 분야에서 폭넓게 활용된다.
- 그러나 효과적인 레그 구현에는 문서를 적절히 벡터라이즈하고 인덱싱하는 작업이 필요하며, 문서의 형식과 내용에 따라 신뢰성을 높이는 과정이 중요하다.
- 최근에는 나이브 레그에서 발전하여 프리 프로세스와 포스트 프로세스를 활용한 어드밴스드 레그 기술 및 모듈러 레그라는 접근 방식이 힘을 받고 있다.
- 이러한 기술들은 각 유즈 케이스에 따라 상이하게 적용되므로, 효과적인 레그 구현을 위해서는 관련 컴포넌트들에 대한 체계적인 설계와 관리가 필요하다.
5. 🤖 레그 기술을 활용한 성능 개선 방법

- 레그 기술의 성능을 향상시키기 위한 첫 번째 방법으로 하이드라 기법을 소개하며, 이는 질문의 맥락 없이 임의로 생성된 가상의 답변을 이용하여 정보를 증강하는 방식이다.
- 이외에도 리랭킹 기술을 통해 벡터 데이터베이스에서 더 중요한 정보를 선별하고 정리함으로써 레그 성능을 높일 수 있다.
- 성능 평가 결과, 하이드라와 리랭킹 기술을 동시에 사용하여 모델의 성능이 80점에서 90점으로 향상된 것을 확인하였다.
- 하지만 정확도가 증가하면서 비용과 레이턴시도 증가하는 트레이드 오프가 있으며, 이는 다양한 기법을 동시에 사용할 때 발생하는 문제다.
- 또한, 데이터의 품질이 중요하며, 성능 향상을 위해 여러 기법을 통합적으로 테스트할 필요가 있다.
6. 🚀 커스텀 LLM 파인튜닝 및 배포의 필수 요소

- 커스텀 LLM의 파인튜닝 비용은 약 100달러 이내에서 가능하며, 효과적인 성능을 내기 위한 다양한 최적화 기법이 존재한다.
- 최신 데이터 반영을 위해 지속적인 업데이트 및 인덱싱 작업이 필요하며, 이를 위해서는 자동화된 파이프라인 구축이 필수적이다.
- VESSL AI 플랫폼은 간편한 클릭으로 LM 모델을 실행하고, 이를 학습 및 배포할 수 있는 다양한 기능을 제공하여 스타트업들이 AI 모델을 효율적으로 운영할 수 있도록 돕고 있다.
- 클라우드 GPU를 통해 비용을 70% 이상 절감할 수 있으며, 다양한 외부 리소스와의 연결이 가능하다.
- 향후에는 수백 개의 특화된 모델이 자동으로 운영되는 인프라 구축을 목표로 하고 있으며, 이를 통해 효율적인 AI 모델 운영이 가능할 것으로 예상된다.