프로그램 활용185 Build Your RAG with Verba+Ollama and Talk to Your Own Data 출처: https://medium.com/@ria.banerjee005/build-your-rag-with-verba-ollama-and-talk-to-your-own-data-187f61b72408 Ria Banerjee·Follow4 min read·May 22, 2024 76 Before we dive into this topic, let us talk about RAG and vector databases.What is RAG?Retrieval Augmented Generation, or RAG is a technique to enhance search experience by incorporating LLMs. Instead of searching for an answer by going.. 2024. 12. 5. AI LLM RAG 구성 출처: http://www.linuxdata.org/bbs/board.php?bo_table=TensorFlow&wr_id=8&sst=wr_hit&sod=desc&sop=and&page=1[AI] LLM RAG 환경 구성 - 1. Ollama 설치 꿈꾸는여행자 0건 1,392회 24-06-21 18:11 안녕하세요. 꿈꾸는여행자입니다. LLM RAG 환경 구성을 다루고자 합니다. 이번 항목에서는 Ollama 설치 까지 실습을 진행해 보도록 하겠습니다. 상세 내역은 아래와 같습니다. 감사합니다. > 아래 ________________ 목차 1. Overview 31.1. 분석 31.1.1. 관련 검색 31.1.2. Url 31.2. 설계.. 2024. 12. 5. Ollama와 LangChain으로 RAG 구현하기 (with Python) 출처: https://velog.io/@cathx618/Ollama%EC%99%80-LangChain%EC%9C%BC%EB%A1%9C-RAG-%EA%B5%AC%ED%98%84%ED%95%98%EA%B8%B0-with-Python 설치 및 기본 실행문서 임베딩 + 검색(with ChromaDB)Multi-modal참고자료LLM목록 보기3/9 Ollama 캐릭터는 다시 봐도 넘 귀엽다...시작하기 전에 확실히 할 부분은, RAG 구현에 있어서 LangChain을 반드시 사용하진 않아도 된다는 것이다. 앞서 실습에서 Ollama와 ChromaDB를 통해 간단하게 구현했듯 각각의 모델들을 불러와서 사용해도 된다. 다만 LangChain을 사용하면 좀 더 많은 모듈들을 쉽게 결합하고 확장할 수 있으며, 사용.. 2024. 12. 5. LLaMA3 을 이용한 RAG 구축 + Ollama 사용법 정리 출처: https://velog.io/@judy_choi/LLaMA3-%EC%9D%84-%EC%9D%B4%EC%9A%A9%ED%95%9C-RAG-%EA%B5%AC%EC%B6%95-Ollama-%EC%82%AC%EC%9A%A9%EB%B2%95-%EC%A0%95%EB%A6%AC 1. RAGOutput2. Ollama : 배포의 혁신명령어HuggingFace 의 gguf 모델을 Ollama 로 실행하기ReferenceOpenLLM스터디 1. RAGLlama3-KO 를 이용해 RAG 를 구현해 보겠습니다.RAG 에 사용할 PDF로 근로기준법을 다운로드하여 사용했습니다.https://www.law.go.kr/법령/근로기준법필요한 라이브러리 임포트import osimport warningswarnings.fi.. 2024. 12. 5. AI Ollama 설치와 운영 : 로컬 환경에서 대규모 언어 모델을 쉽게 실행하기 출처: https://blog.oriang.net/68최근 LLM 서비스들이 점점 더 널리 사용되고 있지만, 개인정보 보호와 비용 문제로 인해 고민하는 사용자들이 많습니다. 특히 폐쇄망 환경에서 오픈소스 기반 모델을 로컬 환경에서 실행할 수 있다면 이러한 고민들이 해소가 되겠죠. Ollama는 클라우드에 의존하지 않고, 개인 컴퓨터에서 대형 언어 모델을 직접 실행할 수 있는 솔루션으로, 인터넷 연결이 불필요한 폐쇄망에서도 동작할 수 있어 괜찮은 대안이 될 수 있습니다. 지금부터 공개된 LLM 모델들을 로컬에서 직접 실행하고 관리할 수 있도록 해주는 Ollama에 대해 알아보겠습니다. ollama 만을 활용해 llama 3.1 모델로 추론할 경우 아래와 같이 활용될 수 있습니다. 그런데 우리가 AI를.. 2024. 12. 5. 이전 1 2 3 4 5 6 7 ··· 37 다음