[카테고리:] 미분류

  • RAG vs 프롬프트 엔지니어링

    많은 이들이 “프롬프트로 모든 것을 해결할 수 있다면 RAG는 불필요한 것 아닌가?”라고 묻고 있습니다. 하지만 현실은 그렇게 단순하지 않습니다.

    RAG가 여전히 필요한 이유

    RAG는 사라지지 않고 오히려 진화하고 있습니다[1][2]. 2025년에도 RAG가 계속 유행할 것으로 예상되는 이유는 여러 가지가 있습니다:

    1. 비용 효율성과 속도
    컨텍스트 창을 늘리는 것은 비용이 기하급수적으로 증가합니다[3]. 토큰 길이를 4000개에서 8000개로 두 배 늘리면 2배가 아니라 4배 더 비쌉니다[4][5]. RAG는 필요한 정보만 검색하여 전달하므로 훨씬 경제적입니다[6].

    2. 정확성과 신뢰성
    Long Context LLM과 RAG를 비교한 최신 연구에 따르면, LC 모델이 일반적으로 QA 벤치마크에서 RAG보다 우수하지만, 요약 기반 검색은 LC와 비교할 만한 성능을 보여줍니다[7]. 특히 Wikipedia 기반 질문에서는 LC가 더 나은 성능을 보이지만, 대화 기반 및 일반 질문에서는 RAG가 여전히 장점을 가집니다.

    3. “Lost in the Middle” 문제
    긴 컨텍스트에서는 중간에 위치한 중요한 정보를 놓치는 현상이 발생합니다[4][8]. 스탠포드와 UC버클리 연구에 따르면, LLM이 관련 정보가 입력 컨텍스트의 시작이나 끝에 있을 때는 잘 식별하지만, 긴 컨텍스트 중간에 있을 때는 성능이 크게 저하됩니다[3].

    프롬프트 엔지니어링의 한계

    프롬프트 엔지니어링도 명확한 한계가 있습니다[9][10]:

    • 컨텍스트 길이 제한: 아무리 긴 컨텍스트 창이라도 물리적 한계가 존재합니다[11]
    • 명확성과 일관성 문제: 프롬프트가 조금만 바뀌어도 결과가 크게 달라질 수 있습니다[9]
    • 환각(Hallucination) 문제: 최신 정보 부재나 편향된 출력의 위험이 여전히 존재합니다[11]

    2025년의 트렌드: 결합과 진화

    흥미롭게도, 2025년의 주요 트렌드는 RAG와 Long Context의 대립이 아닌 결합입니다:

    1. RAG 2.0과 GAR(Generation-Augmented Retrieval)의 등장
    기존 “검색증강생성(RAG)”에서 “생성증강검색(GAR)”으로의 전환이 일어나고 있습니다[12]. AI가 검색 과정 자체를 지능적으로 수행하며 사용자 의도에 최적화된 정보를 찾아내는 방식으로 진화하고 있습니다.

    2. 하이브리드 접근법
    검색 기능 추가와 컨텍스트 윈도우 확장을 동시에 적용하면 더 뛰어난 결과를 얻을 수 있다는 연구 결과가 나오고 있습니다[8]. 16K 또는 32K의 큰 컨텍스트 윈도우를 가진 LLM에도 검색 기능을 추가할 경우 성능이 더욱 향상됩니다.

    3. 컨텍스트 엔지니어링의 부상
    최근에는 “프롬프트 대신 컨텍스트 엔지니어링”이라는 개념이 주목받고 있습니다[13]. 이는 컨텍스트를 최적화하여 LLM이 최고 성능을 발휘하도록 하는 개념으로, 기존 프롬프트 엔지니어링을 뛰어넘어 미세조정의 대안으로 부상하고 있습니다.

    실무에서의 선택 기준

    결국 RAG와 프롬프트 엔지니어링 중 어떤 것을 선택할지는 상황에 따라 달라집니다[14][15]:

    상황권장 방식이유
    빠른 프로토타이핑프롬프트 엔지니어링인프라 비용 없이 빠른 구현
    자주 변경되는 데이터RAG실시간 정보 반영 가능
    대규모 문서 처리Long Context + RAG하이브리드 접근으로 최적 성능
    비용 최적화가 중요한 경우RAG토큰 사용량 절약

    결론: 상호 보완적 관계

    RAG의 미래는 결코 어둡지 않습니다. 오히려 2025년에는 특정 업무에 특화된 실용적 AI 에이전트의 확산[12]과 함께 RAG 기술이 더욱 정교해지고 있습니다.

    프롬프트 엔지니어링이 “잘 묻는 법”이라면, RAG는 “정확한 문맥을 함께 전달하는 법”입니다[16]. 두 방식은 경쟁 관계가 아닌 상호 보완적 관계로, 각각의 장점을 살려 함께 활용할 때 최고의 성능을 발휘합니다.

    미래의 AI 시스템은 단일 기술에 의존하기보다는, RAG, Long Context, 프롬프트 엔지니어링을 적절히 조합한 통합적 접근[8]을 통해 더욱 강력하고 효율적인 솔루션을 제공할 것입니다.

    출처
    [1] RAG 기술이 주목받는 9대 분야 & 미래 전망 – whistory https://whiseung.tistory.com/entry/%F0%9F%94%A5-RAG-%EA%B8%B0%EC%88%A0%EC%9D%B4-%EC%A3%BC%EB%AA%A9%EB%B0%9B%EB%8A%94-9%EB%8C%80-%EB%B6%84%EC%95%BC-%EB%AF%B8%EB%9E%98-%EC%A0%84%EB%A7%9D-%F0%9F%93%88
    [2] 2025년 RAG(검색증강생성) 기술 전망 – 브런치 https://brunch.co.kr/@zer0cero/62
    [3] LLM 성능 좌우하는 ‘컨텍스트’ 창, 과연 클수록 좋을까? – AI타임스 https://www.aitimes.com/news/articleView.html?idxno=152588
    [4] RAG vs. Long-context LLMs – SuperAnnotate https://www.superannotate.com/blog/rag-vs-long-context-llms
    [5] How do RAG and Long Context compare in 2024? – Vellum AI https://www.vellum.ai/blog/rag-vs-long-context
    [6] 검색 증강 생성(RAG)이란 무엇인가요? – AI – AWS https://aws.amazon.com/ko/what-is/retrieval-augmented-generation/
    [7] Long Context vs. RAG for LLMs: An Evaluation and Revisits – arXiv https://arxiv.org/abs/2501.01880
    [8] Retrieval meets Long Context Large Language Models https://velog.io/@hansoljang/Retrieval-meets-Long-Context-Large-Language-Models
    [9] LLM의 한계인 Clarity(명확성)과 Consistency(일관성)을 줄여보는 … https://rimiyeyo.tistory.com/entry/LLM%EC%9D%98-%ED%95%9C%EA%B3%84%EC%9D%B8-Clarity%EB%AA%85%ED%99%95%EC%84%B1%EA%B3%BC-Consistency%EC%9D%BC%EA%B4%80%EC%84%B1%EC%9D%84-%EC%A4%84%EC%97%AC%EB%B3%B4%EB%8A%94-prompt-engineering%EA%B8%B0%EB%B2%95
    [10] 프롬프트의 한계와 가능성 – haebom https://slashpage.com/haebom/v93nzyxmd3vv82wk6r45
    [11] 생성형 AI에게 프롬프트로 일 시키기와 그 한계 – 브런치 https://brunch.co.kr/@@fPZO/7
    [12] 2025년 AI 트렌드 전망 :: 실용성의 시대 – 스켈터랩스 https://www.skelterlabs.com/blog/2025-ai-trend
    [13] “프롬프트 대신 컨텍스트 엔지니어링”…미세조정 대안으로 부상 https://www.aitimes.com/news/articleView.html?idxno=200409
    [14] RAG vs prompt engineering: Getting the best of both worlds – K2view https://www.k2view.com/blog/rag-vs-prompt-engineering/
    [15] RAG vs Fine-tuning vs Prompt Engineering: Everything You Need to … https://www.intersystems.com/resources/rag-vs-fine-tuning-vs-prompt-engineering-everything-you-need-to-know/
    [16] Prompt Engineering vs RAG : 스마트 코드 제안의 핵심 – SLEXN https://www.slexn.com/prompt-engineering-vs-rag-%EC%8A%A4%EB%A7%88%ED%8A%B8-%EC%BD%94%EB%93%9C-%EC%A0%9C%EC%95%88%EC%9D%98-%ED%95%B5%EC%8B%AC/
    [17] Prompt Engineering: The New Kid on the Tech Block or Just Another Buzzword? https://dev.to/sakethkowtha/prompt-engineering-the-new-kid-on-the-tech-block-or-just-another-buzzword-21fe
    [18] 코딩없이 초거대언어모델(LLM)을 활용하는 법: 프롬프트 엔지니어링 … https://blog-ko.superb-ai.com/what-is-prompt-engineering/
    [19] RAG vs fine-tuning vs. prompt engineering – IBM https://www.ibm.com/think/topics/rag-vs-fine-tuning-vs-prompt-engineering
    [20] 2024 Year Of The RAG :: RAG가 주목 받는 이유와 미래 동향 https://www.skelterlabs.com/blog/2024-year-of-the-rag
    [21] prompt engineering (프롬프트 엔지니어링) https://wikidocs.net/225974
    [22] RAG(Retrieval Augmented Generation) 기술의 현황과 미래 전망 https://seo.goover.ai/report/202505/go-public-report-ko-df84a962-713a-4862-bee9-241522f6752d-0-0.html
    [23] 생성형 AI 모델과 대화하는 프롬프트 엔지니어링 Prompt Engineering https://www.samsungsds.com/kr/insights/prompt-engineering.html
    [24] RAG vs Fine-Tuning vs Prompt Engineering: Optimizing AI Models https://dev.to/tak089/rag-vs-fine-tuning-vs-prompt-engineering-optimizing-ai-models-4leg
    [25] RAG 기술이 2025년에도 유행할 5가지 이유 – whistory https://whiseung.tistory.com/entry/%F0%9F%8C%9F-RAG-%EA%B8%B0%EC%88%A0%EC%9D%B4-2025%EB%85%84%EC%97%90%EB%8F%84-%EC%9C%A0%ED%96%89%ED%95%A0-5%EA%B0%80%EC%A7%80-%EC%9D%B4%EC%9C%A0
    [26] Prompt Engineering에 대한 모든 기법 소개 – YouTube https://www.youtube.com/watch?v=EZqY_mnHfTI
    [27] RAG vs 미세 조정 vs 프롬프트 엔지니어링 – IBM https://www.ibm.com/kr-ko/think/topics/rag-vs-fine-tuning-vs-prompt-engineering
    [28] Retrieval-Augmented Generation(RAG)의 진화와 미래 전망 – Goover https://seo.goover.ai/report/202505/go-public-report-ko-039fef5c-12e8-410e-aee3-284856f34025-0-0.html
    [29] 프롬프트 엔지니어링의 미래 동향과 연구 방향 – TILNOTE https://tilnote.io/pages/67fe74ff3c3f2fc7098789f0
    [30] [LLM] RAG와 Prompt Engineering – velog https://velog.io/@kimmy/LLM-RAG%EC%99%80-Prompt-Engineering
    [31] [2025년 전망] 데이터 보호·산업용 AI·RAG 전환·지속가능성 가속 https://www.gttkorea.com/news/articleView.html?idxno=15710
    [32] LLM 성능 좌우하는 컨텍스트 창, 과연 클수록 좋을까? https://news.zum.com/articles/84633932
    [33] RAG vs Long Context Models [Discussion] : r/MachineLearning https://www.reddit.com/r/MachineLearning/comments/1ax6j73/rag_vs_long_context_models_discussion/
    [34] LLM 컨텍스트 창: 새로운 무어의 법칙? https://www.youtube.com/watch?v=cE6cHxQoUSc
    [35] Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, pages 22600–22632 https://aclanthology.org/2024.emnlp-main.1259.pdf
    [36] Prompt engineering https://velog.io/@kameleon43/Prompt-engineering
    [37] 2025 LLM 트렌드: from FM to AI Agent – LG AI Research BLOG https://www.lgresearch.ai/blog/view?seq=565
    [38] [PDF] Retrieval Augmented Generation or Long-Context LLMs? A … https://aclanthology.org/2024.emnlp-industry.66.pdf
    [39] 프롬프트 엔지니어링의 장단점 – 브런치 https://brunch.co.kr/@muralmural/7
    [40] [ACL 2024] 문화 간 차이를 고려한 LLM 연구 트렌드 – LG AI연구원 https://www.lgresearch.ai/blog/view?seq=486
    [41] Long Context Models Explained: Do We Still Need RAG? https://www.louisbouchard.ai/long-context-vs-rag/
    [42] 인공지능 시대의 핵심 역량(프롬프트 엔지니어링에 대한 고찰) https://potato-potahto.tistory.com/entry/%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5-%EC%8B%9C%EB%8C%80%EC%9D%98-%ED%95%B5%EC%8B%AC-%EC%97%AD%EB%9F%89%ED%94%84%EB%A1%AC%ED%94%84%ED%8A%B8-%EC%97%94%EC%A7%80%EB%8B%88%EC%96%B4%EB%A7%81%EC%97%90-%EB%8C%80%ED%95%9C-%EA%B3%A0%EC%B0%B0
    [43] 2025년 AI 전망: 새로운 트렌드, 획기적인 기술 및 산업 혁신 – Cody https://meetcody.ai/ko/blog/2025%EB%85%84-ai-%EC%A0%84%EB%A7%9D-%EC%83%88%EB%A1%9C%EC%9A%B4-%ED%8A%B8%EB%A0%8C%EB%93%9C-%ED%9A%8D%EA%B8%B0%EC%A0%81%EC%9D%B8-%EA%B8%B0%EC%88%A0-%EB%B0%8F-%EC%82%B0%EC%97%85-%ED%98%81%EC%8B%A0/
    [44] Penguin 솔루션, AI 인프라 복잡성 해결 https://www.penguinsolutions.com/ko-kr/resources/blog/solve-infrastructure-complexity-in-the-hot-ai-market
    [45] 2025년 인공지능(AI) 전망: 인간과 함께 진화하는 기술의 미래 https://contents.premium.naver.com/minpapa/il100/contents/250525181746611xj
    [46] GPT 시대의 핵심 기술, 프롬프트 엔지니어링의 모든 것 – Yona_ https://yona-star.tistory.com/entry/GPT-%EC%8B%9C%EB%8C%80%EC%9D%98-%ED%95%B5%EC%8B%AC-%EA%B8%B0%EC%88%A0-%ED%94%84%EB%A1%AC%ED%94%84%ED%8A%B8-%EC%97%94%EC%A7%80%EB%8B%88%EC%96%B4%EB%A7%81%EC%9D%98-%EB%AA%A8%EB%93%A0-%EA%B2%83
    [47] 생성형 AI의 확장을 위한 인프라 문제와 해결책 – Goover https://seo.goover.ai/report/202503/go-public-report-ko-603a5d5f-68c7-45c0-9326-d4f9d78a25a8-0-0.html
    [48] AI 인프라의 미래: 확장을 넘어 효율성의 가치를 – 클루닉스 https://www.clunix.com/insight/it_trends.php?boardid=ittrend&mode=view&idx=953
    [49] 2025년 AI 기술 동향과 전망: 반도체 혁신부터 교육·윤리·산업 적용까지 https://seo.goover.ai/report/202507/go-public-report-ko-91e1e203-2bc8-49c8-b381-e253ceafe394-0-0.html
    [50] LLM 시대의 프롬프트 엔지니어링: 고도화된 도구, 더욱 중요해진 기술 https://www.e4b.kr/aiinsights/?bmode=view&idx=121689472
    [51] 고성능 컴퓨팅 및 AI 인프라 환경에서의 이기종 인프라 통합 실패가 … https://clunix.com/insight/it_trends.php?boardid=ittrend&mode=view&idx=975
    [52] 2025 차세대 인공지능(AI) 기술개발 동향과 시장 전망 http://comune.sitec21.com/shop/item.php?it_id=1751937681&ca_id=10
    [53] 최신 AI 시대를 이끄는 프롬프트 엔지니어링: 7가지 고급 테크닉으로 … https://digitalbourgeois.tistory.com/671
    [54] 새로운 클라우드에 대한 계산: 어떻게 AI가 인프라 의사 결정을 재편 … https://blog.equinix.com/blog/2025/07/10/%EC%83%88%EB%A1%9C%EC%9A%B4-%ED%81%B4%EB%9D%BC%EC%9A%B0%EB%93%9C%EC%97%90-%EB%8C%80%ED%95%9C-%EA%B3%84%EC%82%B0-%EC%96%B4%EB%96%BB%EA%B2%8C-ai%EA%B0%80-%EC%9D%B8%ED%94%84%EB%9D%BC-%EC%9D%98%EC%82%AC/
    [55] 2025년 중반 AI 산업 혁신 동향과 미래 전망 https://seo.goover.ai/report/202507/go-public-report-ko-6df84190-5da2-4607-9def-53dfef4318b6-0-0.html
    [56] 프롬프트 엔지니어링이 대체 뭐야? https://pro-editor.tistory.com/entry/prompt-engineering
    [57] AI, 생산성 향상 vs 복잡성 증가: 전문가 의견 분분 | 헤드라인 https://hyper.ai/kr/headlines/d8dd60b42fcd5b0374d2a08bd0e3f07e
    [58] AI.GOV 해외동향 2025-1호 | 혁신24 – 정부혁신 홈페이지 > https://www.innovation.go.kr/ucms/bbs/B0000051/view.do?nttId=17774&menuNo=300145&pageIndex=
    [59] 프롬프트 엔지니어링이란? – SAP https://www.sap.com/korea/resources/what-is-prompt-engineering
    [60] [PDF] 생성형 AI를 위한 Retrieval-Augmented Generation (RAG) 기술 동향 … https://journal.kace.re.kr/xml/44058/44058.pdf
    [61] Long-Context를 처리하는 ‘새로운’ 기법 10選 – 튜링포스트코리아 https://turingpost.co.kr/p/long-context-llm
    [62] 2025년도 과기정통부 예산 18.9조원…. ‘선도형 R&D, 인공지능 https://www.aitimes.kr/news/articleView.html?idxno=33173
    [63] [RAG] 논문 리뷰 – LightRAG : Simple and fast retreval-augmented … https://mz-moonzoo.tistory.com/95
    [64] LongLoRA: Efficient Fine-tuning of Long-Context Large Language … https://ostin.tistory.com/228
    [65] 2025년도 정부 ICT R&D 예산 1조 3156억원…“AI 대전환 가속” http://www.itdaily.kr/news/articleView.html?idxno=230138
    [66] [PDF] 검색증강생성(RAG) 기술의 등장과 발전 동향 https://www.nia.or.kr/common/board/Download.do?bcIdx=27539&cbIdx=82618&fileNo=1
    [67] 이번주 논문 트렌드(4/20) : LLM의 Long Context 성능 개선 연구 https://flonelin.wordpress.com/2024/04/20/%EC%9D%B4%EB%B2%88%EC%A3%BC-%EB%85%BC%EB%AC%B8-%ED%8A%B8%EB%A0%8C%EB%93%9C4-20-llm%EC%9D%98-long-context-%EC%84%B1%EB%8A%A5-%EA%B0%9C%EC%84%A0-%EC%97%B0%EA%B5%AC/
    [68] 2025년 1차 추경을 통해 문화 인공지능(AI) 예산 215억 원 확보 https://m.korea.kr/news/pressReleaseView.do?newsId=156687586&pWise=mSub&pWiseSub=C8
    [69] 대규모 언어 모델을 위한 검색-증강 생성(RAG) 기술 현황 – 경남 ICT협회 https://www.gnict.org/blog/130/%EA%B8%80/%EB%8C%80%EA%B7%9C%EB%AA%A8-%EC%96%B8%EC%96%B4-%EB%AA%A8%EB%8D%B8%EC%9D%84-%EC%9C%84%ED%95%9C-%EA%B2%80%EC%83%89-%EC%A6%9D%EA%B0%95-%EC%83%9D%EC%84%B1rag-%EA%B8%B0%EC%88%A0-%ED%98%84%ED%99%A9/
    [70] Boosting long-context post-training for frontier vision language models https://myownproject.tistory.com/85
    [71] 2025년도 과기정통부 예산 18.9조원으로 확정 https://www.msit.go.kr/bbs/view.do?sCode=user&mId=307&mPid=208&bbsSeqNo=94&nttSeqNo=3185232
    [72] RAG(Retrieval-Augmented Generation): LLM의 한계와 보완 방법 https://www.igloo.co.kr/security-information/ragretrieval-augmented-generation-llm%EC%9D%98-%ED%95%9C%EA%B3%84%EC%99%80-%EB%B3%B4%EC%99%84-%EB%B0%A9%EB%B2%95/
    [73] AI 모델의 컨텍스트 길이 완전 분석 – GPT-4부터 Claude, Gemini … https://memoryhub.tistory.com/entry/AI-%EB%AA%A8%EB%8D%B8%EC%9D%98-%EC%BB%A8%ED%85%8D%EC%8A%A4%ED%8A%B8-%EA%B8%B8%EC%9D%B4-%EC%99%84%EC%A0%84-%EB%B6%84%EC%84%9D-%F0%9F%A7%A0-GPT-4%EB%B6%80%ED%84%B0-Claude-Gemini-Llama%EA%B9%8C%EC%A7%80
    [74] 과학기술정보통신부 ‘2025 예산안’ | 뉴스 | 대한민국 정책브리핑 https://sns.korea.kr/news/policyNewsView.do?newsId=148933261
    [75] [강의노트] RAG From Scratch : RAG for long context LLMs – velog https://velog.io/@euisuk-chung/RAG%EB%8A%94-%EC%A0%95%EB%A7%90%EB%A1%9C-%EB%81%9D%EB%82%AC%EC%9D%84%EA%B9%8C
    [76] 과기부, 2025년 연구개발 예산 6조 3천억 원 확정…”인공지능·생명과학 … https://www.hinews.co.kr/view.php?ud=202501031207125222205868f676_48
    [77] RAG 시리즈 1화 – RAG란 무엇인가? AI 혁신의 핵심 개념 – the Basics https://bcuts.tistory.com/323
    [78] 논문 리뷰 | Long-Context LLMs Meet RAG – 수리링의 데이터교실 https://smartest-suri.tistory.com/62
    [79] 2025년 주요 LLM 시장 점유율 완전 분석: 구버전부터 최신 버전까지 https://seo.goover.ai/report/202505/go-public-report-ko-6858855e-df99-476b-b458-40601d8ac7df-0-0.html
    [80] “코딩은 AI가, 전략은 사람이”…생존하는 개발자의 조건 바뀐다 https://zdnet.co.kr/view/?no=20250609103900
    [81] AI – LangChain(RAG) 학습내용 (4) https://velog.io/@kmlee95/RAG-4
    [82] 1 – 2025년, LLM은 어디까지 왔는가? – gsroot – 티스토리 https://gsroot.tistory.com/114
    [83] AI 시대, 백엔드 개발자의 역할은 어떻게 변하고 있을까? – 패스트캠퍼스 https://fastcampus.co.kr/community/100646
    [84] LLM 학습과 RAG: AI 더 똑똑하게 만들기 – 셀렉트스타 https://selectstar.ai/blog/insight/rag-and-finetuning-ko/
    [85] 2025년 LLM 모델 종류 총정리 : 성능 비교, 업무 활용 사례, LLM AGENT https://app.dalpha.so/blog/llm/
    [86] AI 시대의 개발자: 설계 능력과 AI 활용의 중요성 – F-Lab https://f-lab.kr/insight/ai-era-developer-20250129
    [87] [LLM][RAG] RAG(Retrieval-Augmented Generation) 소개 및 설명 https://dwin.tistory.com/172
    [88] SW개발자 채용 변화 전망과 생성형 AI – SPRi – 소프트웨어정책연구소 https://spri.kr/posts/view/23870?code=data_all
    [89] 인사이트/로그 | 2025년 4월 주요 LLM 동향 및 비교 분석 https://letspl.me/quest/1706/%EB%8F%84%EB%8C%80%EC%B2%B4%202025%EB%85%84%204%EC%9B%94,%20LLM%EC%9D%80%20%EC%96%B4%EB%96%BB%EA%B2%8C%20%EB%B0%9C%EC%A0%84%ED%95%98%EA%B3%A0%20%EC%9E%88%EA%B3%A0%20%EC%96%B4%EB%96%A0%ED%95%9C%20%EB%AA%A8%EB%8D%B8%EC%9D%84%20%EC%93%B0%EB%8A%94%EA%B2%8C%20%EB%A7%9E%EC%9D%84%EA%B0%80%EC%9A%94?%EA%B0%9C%EB%B0%9C%EC%86%8D%EB%8F%84+%EB%B0%8F+%EB%AA%A8%EB%8D%B8%EC%9D%B4+%EC%9E%90%EC%A3%BC+%EC%97%85%EB%8D%B0%EC%9D%B4%ED%8A%B8%EB%90%98%EC%84%9C%2C+%EC%A0%95%EB%A6%AC%ED%95%B4%EC%84%9C+%EB%B4%90%EC%95%BC%ED%95%98%EB%8A%94+LLM+%EC%B6%94%EC%84%B8+%EB%B0%8F+%ED%8A%B8%EB%A0%8C%EB%93%9C%EC%9E%85%EB%8B%88%EB%8B%A4.1.+%EB%8C%80%ED%98%95+%EC%96%B8%EC%96%B4+%EB%AA%A8%EB%8D%B8%28LLM%29%EC%9D%98+%EB%B0%9C%EC%A0%84+%ED%8A%B8%EB%A0%8C%EB%93%9C
    [90] 2025년 AI 일자리 전망: 변화하는 개발자 역할과 필수 역량 – Codetree https://www.codetree.ai/blog/2025%EB%85%84-ai-%EC%9D%BC%EC%9E%90%EB%A6%AC-%EC%A0%84%EB%A7%9D-%EB%B3%80%ED%99%94%ED%95%98%EB%8A%94-%EA%B0%9C%EB%B0%9C%EC%9E%90-%EC%97%AD%ED%95%A0%EA%B3%BC-%ED%95%84%EC%88%98-%EC%97%AD%EB%9F%89/
    [91] Fine-tuning과 RAG에 대해 알아보자. – Marcus’ Stroy – 티스토리 https://marcus-story.tistory.com/29
    [92] [트렌드] 2025년 트렌드 : LMM, LAM, AGENT, 그리고 FMOps – velog https://velog.io/@euisuk-chung/2025%EB%85%84-AI-%ED%8A%B8%EB%A0%8C%EB%93%9C-LMM-LAM-%EC%98%A8%EB%94%94%EB%B0%94%EC%9D%B4%EC%8A%A4-AI-AI-%EC%97%90%EC%9D%B4%EC%A0%84%ED%8A%B8-%EC%9E%84%EB%B2%A0%EB%94%94%EB%93%9C-AI-%EA%B7%B8%EB%A6%AC%EA%B3%A0-FMOps
    [93] AI 개발자를 위한 필수 역량과 성장 방법 – 코딩추월차선 https://www.developerfastlane.com/blog/essential-skills-for-ai-developers-and-how-to-grow
    [94] [딥러닝] RAG(Retrieval Augmented Generation) 논문 번역 https://losskatsu.github.io/machine-learning/rag-paper/
    [95] 라마 주도 오픈소스의 힘… “2025년 LLM 상품화 속도 빨라질 것” https://www.ddaily.co.kr/page/view/2025010811134520419
    [96] AI 기술의 도입으로 변화하는 개발자의 미래와 생존 전략 진단 – Goover https://seo.goover.ai/report/202503/go-public-report-ko-1ac63da2-6c02-4ce3-9e00-860b90420f18-0-0.html